La révélation fracassante de Nvidia : La puce IA ultime qui révolutionnera tout en 2024 !

Sommaire :

Nvidia annonce une nouvelle puce IA encore plus puissante

La puce IA GH200 aura une capacité de mémoire trois fois supérieure à celle de son GPU Nvidia H100 qui est déjà une référence dans le domaine de l’IA générative.

Nvidia est déjà le leader sur le marché des processeurs haut de gamme pour l’utilisation de l’IA générative, mais la société ne compte pas s’arrêter en si bon chemin. En effet, le fabricant de GPU va lancer une puce encore plus puissante pour répondre à la demande croissante d’exécution de grands modèles d’IA. Baptisée GH200 (pour Grace Hopper), cette super puce devrait être disponible au deuxième trimestre de l’année prochaine.

Une puce qui redéfinit les capacités de l’IA générative

Nvidia a annoncé l’arrivée prochaine de sa super puce GH200, qui va pouvoir gérer « les charges de travail d’IA générative les plus complexes, couvrant de grands modèles de langage, des systèmes de recommandation et des bases de données vectorielles ». La plateforme GH200 proposera le même GPU que le H100, actuellement l’offre la plus puissante et la plus populaire de Nvidia en matière d’IA, mais aura une capacité de mémoire trois fois supérieure.

Des performances à la hauteur des grands modèles de langage

Les modèles d’IA complexes nécessitent des GPU ultraperformants afin que le système puisse effectuer les calculs nécessaires pour générer du texte ou des images. L’exécution de grands modèles de langage requiert une puissance de traitement considérable et même avec les puces Nvidia H100 actuelles, certains doivent répartir les modèles entre différents GPU pour les faire fonctionner.

En savoir plus  Intel dévoile Thunderbolt 5: des vitesses incroyables de 120 Gb/s garanties, une annonce à couper le souffle qui attise la curiosité.

Un quasi-monopole sur le marché des GPU pour l’IA

Nvidia détient un quasi-monopole sur les GPU capables de générer de l’IA. La plupart des fournisseurs de services Cloud comme Amazon AWS, Microsoft Azure et Google utilisent les GPU H100 Tensor Core de Nvidia et proposent des services pour aider leurs clients à mettre en œuvre des projets utilisant les grands modèles de langage afin de se différencier.

Une concurrence en pleine expansion

Microsoft et Nvidia se sont également associés pour construire de nouveaux supercalculateurs, même si le géant de Redmond ambitionne de fabriquer ses propres puces pour l’IA. En outre, Nvidia devra également faire face à la concurrence d’AMD qui souhaite mettre en production son propre GPU dédié à l’IA à la fin de l’année.

Aymeric du blog Les meilleures comparatifs et avis
Les derniers articles par Aymeric du blog Les meilleures comparatifs et avis (tout voir)
En savoir plus  Révélation explosive : les caméras espion d'Amazon cachées dans des crochets de salle de bain ! Préparez-vous à être stupéfait !