-

Restez dans la voie rapide de l’IA avec l’infrastructure cloud hybride

Cloud ou sur site? C’est la question que se posent de nombreuses organisations lors de la création d’une infrastructure d’IA.

Le cloud computing peut aider les développeurs à démarrer rapidement à un coût minimal. C’est idéal pour les premières expériences et pour répondre aux besoins temporaires.

Cependant, à mesure que les entreprises itèrent sur leurs modèles d’IA, elles peuvent devenir de plus en plus complexes, consommer plus de cycles de calcul et impliquer des ensembles de données exponentiellement plus volumineux. Les coûts de la gravité des données peuvent augmenter, avec plus de temps et d’argent dépensés pour pousser de grands ensembles de données d’où ils sont générés vers où résident les ressources de calcul.

Ce «ralentisseur» du développement de l’IA est souvent un point d’inflexion où les organisations réalisent qu’il existe des avantages d’opex avec une infrastructure sur site ou colocalisée. Ses coûts fixes peuvent prendre en charge une itération rapide au «coût par cycle de formation» le plus bas, en complément de leur utilisation du cloud.

À l’inverse, pour les organisations dont les ensembles de données sont créés dans le cloud et y vivent, il est logique de se procurer des ressources de calcul adjacentes à ces données. Que ce soit sur site ou dans le cloud, la minimisation du déplacement des données – en gardant de grands volumes aussi près que possible des ressources de calcul – permet de minimiser l’impact de la gravité des données sur les coûts d’exploitation.

‘Posséder la base, louer la pointe’

Les entreprises qui adoptent finalement une infrastructure de cloud hybride tracent une trajectoire familière.

Un client développant une application de reconnaissance d’image a immédiatement bénéficié d’un démarrage rapide et sans effort dans le cloud.

Au fur et à mesure que leur base de données atteignait des millions d’images, les coûts augmentaient et le traitement ralentissait, ce qui a amené leurs spécialistes des données à devenir plus prudents pour affiner leurs modèles.

À ce point de basculement – lorsqu’une infrastructure à coût fixe était justifiée – ils ont transféré les charges de travail de formation vers un système NVIDIA DGX sur site. Cela a permis un retour immédiat à une expérimentation rapide et créative, permettant à l’entreprise de s’appuyer sur le bon départ permis par le cloud.

Le dicton «posséder la base, louer la pointe» capture cette situation. L’informatique d’entreprise provisionne l’infrastructure DGX sur site pour prendre en charge le volume permanent des charges de travail de l’IA et conserve la capacité de passer au cloud chaque fois qu’une capacité supplémentaire est nécessaire.

C’est cette approche de cloud hybride qui peut garantir la disponibilité continue des ressources de calcul pour les développeurs tout en garantissant le coût le plus bas par cycle de formation.

Fournir le cloud hybride AI avec DGX et Anthos de Google Cloud sur Bare Metal

Pour aider les entreprises à adopter une infrastructure cloud hybride, NVIDIA a introduit la prise en charge d’Anthos de Google Cloud sur le bare metal pour ses systèmes DGX A100.

Pour les clients utilisant Kubernetes pour chevaucher des instances de calcul GPU cloud et une infrastructure DGX sur site, Anthos sur bare metal permet une expérience de développement et opérationnelle cohérente à travers les déploiements, tout en réduisant les frais généraux coûteux et en améliorant la productivité des développeurs.

Cela présente plusieurs avantages pour les entreprises. Alors que beaucoup ont mis en œuvre une IA accélérée par GPU dans leurs centres de données, une grande partie du monde conserve une infrastructure de calcul x86 héritée. Avec Anthos sur bare metal, le service informatique peut facilement ajouter des systèmes DGX sur site à leur infrastructure pour s’attaquer aux charges de travail de l’IA et les gérer de la même manière familière, le tout sans avoir besoin d’une couche d’hyperviseur.

Sans avoir besoin d’une machine virtuelle, Anthos sur bare metal – désormais disponible de manière générale – gère le déploiement et la santé des applications dans les environnements existants pour des opérations plus efficaces. Anthos on bare metal peut également gérer des conteneurs d’applications sur une grande variété de types de matériel de performance, optimisés pour le GPU et permet un accès direct des applications au matériel.

«Anthos on bare metal offre aux clients plus de choix quant à la manière et à l’endroit où ils exécutent les applications et les charges de travail», a déclaré Rayn Veerubhotla, directeur de l’ingénierie des partenaires chez Google Cloud. «La prise en charge d’Anthos par NVIDIA sur bare metal signifie que les clients peuvent déployer de manière transparente le plug-in de périphérique GPU de NVIDIA directement sur leur matériel, permettant des performances et une flexibilité accrues pour équilibrer les charges de travail ML dans les environnements hybrides.»

De plus, les équipes peuvent accéder à leurs conteneurs NVIDIA NGC, graphiques Helm et modèles IA préférés de n’importe où.

Grâce à cette combinaison, les entreprises peuvent profiter du démarrage rapide et de l’élasticité des ressources offertes sur Google Cloud, ainsi que des performances sécurisées de l’infrastructure DGX sur site dédiée.

En savoir plus sur Anthos de Google Cloud.

En savoir plus sur NVIDIA DGX A100.

Html code here! Replace this with any non empty raw html code and that's it.

Partager cet article

Actualités