Nvidia annonce de nouvelles architectures GPU Blackwell lors du Computex 2024

Table des matières

Nvidia a lancé le GB200 NVL2. C’est une plateforme conçue pour accélérer le traitement des données et améliorer l’efficacité énergétique grâce aux puces Blackwell et Grace. Toutefois, la performance de ces nouvelles architectures inquiète le responsable analyste de Forrester. Malgré la logique structurelle du GB200 NVL2, celle-ci semble rendre les choses plus complexes.

Durant le Computex 2024, un évènement qui s’est tenu le 4 au 7 juin à Taiwan, Nvidia a présenté ses systèmes HPC GB200 NLV2, basés sur sa structure GPU Blackwell. Ces puces aideront les entreprises à mettre en place des usines d’IA. Elles pourront même construire des centres de données pour piloter la prochaine révolution d’innovations en GenAI.

Dans le domaine des réseaux, Nvidia a également révélé Spectrum-XIl s’agit d’un accélérateur réseau Ethernet, présenté au Computex l’année dernière, et qui est désormais accessible. Il intègre entre autres la carte SmartNIC BlueField-3 et le switch Spectrum-4, dédiés spécialement pour les clouds IA.

Une performance plutôt préoccupante

La structure de la plateforme est bien pensée selon l’analyste en chef de Forrester, Alvin Nguyen. Elle utilise des DPU qui sont conçus pour gérer le trafic allant du nord vers le sud. À cela s’ajoute un SuperNIC, spécialement créé pour administrer le flux de données d’un GPU à un autre. Selon lui, cette structure est logique, mais elle rend les choses plus compliquées.

L’analyste en chef de Forrester a d’ailleurs ajouté :

« Nvidia pousse l’infrastructure d’IA avec une autre norme technologique qui finira par être propriétaire, mais ils doivent le faire pour rester en avance sur la concurrence. »

Cette performance suscitera de nouvelles inquiétudes pour les responsables de centres de données.

Il a d’ailleurs détaillé ses dires dans un email :

« Je m’attends à ce que les systèmes alimentés par Blackwell soient le choix préféré pour les accélérateurs d’IA, tout comme les précédents accélérateurs Nvidia. »

Les versions les plus puissantes exigeront un système de refroidissement à base de liquide. Ce qui entrainera une transformation dans le secteur des centres de données. En effet, tous les datacenters ne sont pas équipés pour fournir l’eau et l’électricité nécessaires au soutien de ces infrastructures imposantes.

Des coûts seront notamment associés à :

  • l’amélioration des infrastructures de données existantes ;
  • l’établissement de nouveaux centres de données ;
  • la collaboration avec des partenaires pour les services cloud et la colocation ;
  • l’adoption de technologies d’accélération plus économes en énergie par les concurrents.

Il serait d’ailleurs judicieux de solliciter l’aide d’un consultant informatique pour optimiser l’utilisation de ces technologies.

Des plateformes GB200 NVL2 alimentant les usines IA

Avant le début du salon, Nvidia a présenté le système GB200 NVL2, lors d’une conférence de presse. Il s’agit d’une variante plus compacte de la GB200 NVL72, lancée en mars dernier.

La plateforme permettra d’accélérer le traitement des informations jusqu’à 18 fois. De plus, elle disposera d’une performance énergétique huit fois supérieure à celle des processeurs x86, grâce à la structure des puces GPU Blackwell et Grace.

Le GPU Blackwell est l’évolution de l’architecture GPU Hopper. Le Grace, par contre, représente la conception de son processeur fondé sur Arm. Les plateformes GB200 intègrent à la fois des CPU Grace et GPU Blackwell.

Durant la conférence de presse, le responsable de l’informatique de Nvidia a affirmé que cette nouvelle technologie facilite l’intégration et l’utilisation des capacités de l’IA générative dans les infrastructures de données existantes.

Le fournisseur a tenu à préciser que maintenant, dix autres partenaires offrent des plateformes qui intègrent la structure.

Blackwell. QCT, Wiwynn, Gigabyte, ASRock Rack, Wistron, Asus, Ingrasys, Pegatron, Supermicro et Inventec se chargeront de la fourniture de systèmes pour l’IA. Ces derniers, destinés à être utilisés sur site, en périphérie, en mode embarqué, et dans le cloud, intégreront leurs réseaux et leurs GPU.

Un consultant informatique pourrait fournir des conseils précieux sur la manière de mettre en œuvre efficacement ces technologies.

Par ailleurs, selon Amit Katz chez Nvidia, vice-président du réseau, le fournisseur intensifie la fréquence des mises à jour. Chaque année, de nouveaux produits seront introduits pour fournir une capacité de ports élargie et de bande passante. Il y aura également une amélioration au niveau des fonctionnalités logicielles ainsi qu’une plus grande flexibilité de programmation.

Cet article vous a-t-il été utile ?

Note moyenne 0 / 5. Nombre de votes 0

Actualité du portage salarial