-

NVIDIA se surpasse à nouveau

Quand la seule entreprise que vous pouvez battre est vous-même, que faites-vous? Après tout, vous êtes le leader, non? Et personne d’autre n’est même habillé sur le terrain. Certaines entreprises peuvent se reposer sur leurs lauriers, économiser de l’argent et ralentir la R&D. NVIDIA ne fait pas partie de ces sociétés.

Il y a deux ans, l’industrie était sur le point de commencer une «explosion cambrienne» de nouveau silicium pour accélérer l’IA. En effet, plusieurs entreprises ont lancé d’impressionnantes nouvelles plateformes, notamment Cerebras, Graphcore, Google et Amazon AWS. Cependant, aucun n’a été en mesure de rivaliser avec NVIDIA en termes de performances par puce pour l’IA du centre de données. Par conséquent, NVIDIA jouit d’une avance considérable dans l’écosystème critique des solutions d’IA. Par exemple, le matériel NVIDIA a été utilisé par sept finalistes sur dix pour les prix Gordon Bell de cette année (essentiellement les Emmys pour les percées de haute technologie).

Cette semaine, NVIDIA a annoncé trois nouveaux produits sur des marchés où il est déjà le leader incontesté: les GPU pour l’IA, les stations de travail pour les groupes de travail de développement d’IA et la mise en réseau ultra-rapide avec 400G Infiniband. Pour le dire franchement, je ne vois aucune société de semi-conducteurs exécuter aussi bien que NVIDIA dans le centre de données.

Qu’a annoncé NVIDIA?

Six mois après que NVIDIA a remplacé le V100 leader de l’industrie par l’A100 leader du secteur, la société a déjà doublé (ou par certaines mesures, même triplé) ses performances GPU pour l’IA et doublé les performances de Mellanox Infiniband. Aujourd’hui, NVIDIA a annoncé une nouvelle variante du GPU A100, qui double la quantité de mémoire à bande passante élevée à 80 Go en utilisant HBM2e, tout en augmentant la bande passante à 2 To / seconde. Les principaux bénéficiaires seront les moteurs de recommandation, qui ont un appétit insatiable pour la mémoire rapide.

La nouvelle plate-forme A100 80 Go est déjà livrée aux clients, y compris le système Cineca AI Exaflop précédemment annoncé de l’Université de Floride, qui, à dix exaflops, sera le supercalculateur d’IA le plus rapide au monde. Il alimentera également le prochain supercalculateur Cambridge-1 appartenant à NVIDIA annoncé le mois dernier. Comme d’habitude, NVIDIA n’a pas divulgué les prix, mais l’A100 80 Go commandera certainement une prime; rien ne vient même près.

Deuxièmement, NVIDIA a annoncé la disponibilité d’Infiniband 400G de bout en bout, doublant à nouveau les performances de la principale solution réseau pour les applications sensibles aux performances et à la latence dans la finance et le HPC. Après tout, si les performances du serveur ne cessent de doubler ou de tripler, le réseau doit continuer à alimenter les moteurs de calcul.

Enfin, NVIDIA a annoncé la station de travail de bureau la plus puissante au monde pour les groupes de travail IA et HPC, la DGX Station A100. Il dispose d’un refroidissement liquide entièrement intégré, ce qui lui permet de se connecter à n’importe quel environnement de bureau et d’alimenter silencieusement les groupes de développement avec les performances d’un supercalculateur. J’ai laissé un mot au Père Noël, mais je pense que cela dépasse son budget pour moi. La plate-forme comprend 4 des nouveaux GPU A100, 3rd Génération NVLink, un processeur AMD EPYC 64 cœurs et 7 To de stockage NVME. Cette plate-forme démontre l’engagement stratégique de NVIDIA à devenir un fournisseur complet pour les clients exigeants des centres de données, en complément de la plate-forme HGX pour les fournisseurs de cloud et de DGX pour les installations de pods courts.

Conclusions

Aujourd’hui, alors qu’AMD a annoncé son arrivée sur les GPU des centres de données, NVIDIA a de nouveau modifié les objectifs des performances de l’IA. Alors que NVIDIA souffle tout le monde hors de l’eau sur la vitesse de l’IA, je crois que la nouvelle plate-forme AMD, que j’ai couverte ici, trouvera sa place dans des supercalculateurs plus sensibles aux prix qui n’ont pas besoin d’une IA de pointe. Le nouveau GPU de NVIDIA peut s’interconnecter via la nouvelle plate-forme réseau Mellanox 400G et être configuré par les partenaires de distribution à l’aide de la carte HGX, du serveur DGX ou de la nouvelle DGX Station.

NVIDIA ne cesse de relever la barre, et je ne vois aucune autre entreprise alignée pour la franchir pour le moment.

Divulgation: Mon cabinet, Moor Insights & Strategy, comme tous les cabinets de recherche et d’analyse, fournit ou a fourni des recherches, des analyses, des conseils et / ou des conseils à de nombreuses entreprises de haute technologie du secteur, notamment AMD et NVIDIA. Je ne détiens aucune position en actions avec les sociétés citées dans cette colonne.

Partager cet article

Actualités