NVIDIA Run:ai offre un doublement de l'utilisation du GPU pour les charges de travail d'inférence IA : les benchmarks montrent que Run:ai double l'utilisation du GPU tout en réduisant la latence de 61x pour les déploiements d'IA en entreprise exécutant des microservices d'inférence NIM. 1️⃣
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
NVIDIA Run:ai offre un doublement de l'utilisation du GPU pour les charges de travail d'inférence IA : les benchmarks montrent que Run:ai double l'utilisation du GPU tout en réduisant la latence de 61x pour les déploiements d'IA en entreprise exécutant des microservices d'inférence NIM. 1️⃣