-

NVIDIA brise les benchmarks d’inférence | Blog NVIDIA

Les véhicules alimentés par l’IA ne sont pas une vision d’avenir, ils sont une réalité aujourd’hui. Et ils ne sont vraiment possibles que sur NVIDIA Xavier, notre système sur puce pour les véhicules autonomes.

La clé de ces véhicules de pointe est l’inférence – le processus d’exécution de modèles d’IA en temps réel pour extraire des informations à partir d’énormes quantités de données. Et en ce qui concerne les inférences embarquées, NVIDIA Xavier s’est une fois de plus avérée être la meilleure – et la seule – plate-forme capable de traiter l’IA dans le monde réel.

Les GPU NVIDIA ont battu les records de performances à travers l’inférence de l’IA dans les centres de données et les systèmes informatiques de périphérie lors de la dernière série de tests de performance MLPerf, les seuls tests de performances d’inférence basés sur un consortium et évalués par des pairs. NVIDIA Xavier a étendu son leadership en matière de performances démontré lors des premiers tests d’inférence IA, organisés l’année dernière, tout en prenant en charge tous les nouveaux cas d’utilisation ajoutés pour un SoC de calcul de périphérie économe en énergie.

L’inférence pour les véhicules intelligents est un problème à part entière. Cela nécessite la capacité de traiter les capteurs et d’exécuter les réseaux neuronaux, le système d’exploitation et les applications en même temps. Ce haut niveau de complexité nécessite un investissement énorme, que NVIDIA continue de faire.

Le nouveau GPU NVIDIA A100, basé sur l’architecture NVIDIA Ampere, a également dépassé la concurrence, surpassant les processeurs jusqu’à 237 fois en inférence de centre de données. Ce niveau de performance dans le centre de données est essentiel pour la formation et la validation des réseaux de neurones qui fonctionneront dans la voiture à l’échelle massive nécessaire à un déploiement généralisé.

Atteindre cette performance n’est pas facile. En fait, la plupart des entreprises qui ont prouvé leur capacité à exécuter une pile entièrement autonome l’exécutent sur NVIDIA.

Les tests MLPerf démontrent que la capacité de traitement de l’IA va au-delà du nombre pur de billions d’opérations par seconde (TOPS) qu’une plate-forme peut réaliser. Ce sont l’architecture, la flexibilité et les outils d’accompagnement qui définissent la compétence IA d’une plateforme de calcul.

Xavier se tient seul

Les tests d’inférence représentent une suite de points de repère pour évaluer le type de charge de travail complexe nécessaire pour les véhicules définis par logiciel. De nombreux tests de référence différents dans plusieurs scénarios, y compris l’informatique de périphérie, vérifient si une solution peut exécuter de manière exceptionnelle non pas une seule tâche, mais plusieurs, comme cela serait requis dans une voiture moderne.

Dans les tests de cette année, NVIDIA Xavier a dominé les résultats pour les SoC de calcul de pointe écoénergétiques – processeurs nécessaires à l’informatique de pointe dans les véhicules et les robots – dans les tâches d’inférence à flux unique et à flux multiples.

Xavier est la génération actuelle de SoC alimentant le cerveau de l’ordinateur NVIDIA DRIVE AGX pour les applications de conduite autonome et de cockpit. C’est un supercalculateur d’IA, intégrant six types de processeurs différents, notamment CPU, GPU, accélérateur d’apprentissage en profondeur, accélérateur de vision programmable, processeur de signal d’image et accélérateur de flux stéréo / optique.

NVIDIA DRIVE AGX Xavier

Grâce à son architecture, Xavier est le seul en matière d’inférence IA. Ses accélérateurs de réseau de neurones profonds programmables prennent en charge de manière optimale les opérations de traitement DNN à haut débit et à faible latence. Comme ces algorithmes en sont encore à leurs balbutiements, nous avons conçu la plate-forme de calcul Xavier pour qu’elle soit flexible afin de pouvoir gérer de nouvelles itérations.

La prise en charge de réseaux de neurones nouveaux et diversifiés nécessite le traitement de différents types de données, via une large gamme de réseaux de neurones. L’énorme performance de traitement de Xavier gère cette charge d’inférence pour fournir un véhicule automatisé ou autonome sûr avec une interface utilisateur intelligente.

Efficacité prouvée avec l’adoption par l’industrie

Alors que l’industrie compare les performances TOPS pour déterminer les capacités autonomes, il est important de tester comment ces plates-formes peuvent gérer les charges de travail réelles de l’IA.

Le leadership consécutif de Xavier dans les principaux benchmarks d’inférence de l’industrie démontre l’avantage architectural de NVIDIA pour le développement d’applications d’IA. Notre SoC est vraiment la seule plateforme éprouvée à la hauteur de ce défi sans précédent.

La grande majorité des constructeurs automobiles, des fournisseurs de niveau 1 et des startups se développent sur la plateforme DRIVE. NVIDIA a acquis une grande expérience dans l’exécution d’applications d’IA du monde réel sur les plates-formes de ses partenaires. Tous ces apprentissages et améliorations profiteront davantage à l’écosystème NVIDIA DRIVE.

Élever la barre plus loin

Cela ne s’arrête pas là. NVIDIA Orin, notre SoC de nouvelle génération, arrive l’année prochaine, offrant près de 7 fois les performances de Xavier avec une efficacité énergétique incroyable.

NVIDIA Orin

Xavier est compatible avec des outils logiciels tels que CUDA et TensorRT pour prendre en charge l’optimisation des DNN vers le matériel cible. Ces mêmes outils seront disponibles sur Orin, ce qui signifie que les développeurs peuvent transférer de manière transparente les développements logiciels passés sur le dernier matériel.

NVIDIA a montré à maintes reprises qu’il s’agissait de la seule solution pour l’IA du monde réel et continuera à promouvoir des technologies de transformation telles que les voitures autonomes pour un avenir plus sûr et plus avancé.

Html code here! Replace this with any non empty raw html code and that's it.

Partager cet article

Actualités