Nouvelles Du Monde

Samsung forme une équipe pour obtenir un contrat de puces IA avec Nvidia

Samsung forme une équipe pour obtenir un contrat de puces IA avec Nvidia

2024-05-06 12:55:37

(Avec l’aimable autorisation de Samsung Electronics)

Samsung Electronics Co., le premier fabricant mondial de puces mémoire, a constitué une équipe pour un accord de fourniture de puces mémoire à large bande passante d’un montant de plusieurs milliards de dollars avec Nvidia Corp., le géant mondial des semi-conducteurs d’intelligence artificielle, afin de battre le leader du marché HBM, SK Hynix Inc.

Le groupe de travail composé d’environ 100 excellents ingénieurs a travaillé pour améliorer les rendements et la qualité de fabrication dans le but premier de réussir les tests de Nvidia alors que le PDG de Nvidia, Jensen Huang, a demandé à la société sud-coréenne d’augmenter les rendements et la qualité des HBM3E à 8 et 12 couches. puces pour l’approvisionnement, selon des sources industrielles à Séoul o lundi. HBM3E est la puce DRAM la plus performante du secteur pour les applications d’IA.

Samsung se concentre sur le premier modèle HBM3E à 12 couches de 36 gigaoctets (Go) développé en février dans l’espoir de réussir le test de qualité actuellement mené par Nvidia ce mois-ci. Samsung aurait déjà sécurisé ses lignes de production pour augmenter sa production afin de répondre à la demande de Nvidia, ont indiqué des sources. Le HBM3E à 12 couches améliore la vitesse d’apprentissage de l’IA de 34 % en moyenne par rapport au produit à 8 couches.

“Samsung vise à conquérir une part de marché élevée en augmentant rapidement l’offre de Nvidia”, a déclaré l’une des sources. “Cela devrait accélérer l’approvisionnement à partir du troisième trimestre.”

Cette stratégie est intervenue alors que SK Hynix Inc., le deuxième fabricant mondial de puces mémoire, domine le marché mondial des HBM avec une part de marché de plus de 90 %.

“Nous avons perdu la première bataille, mais nous devons gagner la seconde”, a déclaré Kyung Kye Hyun, président-directeur général de Samsung, qui gère les activités de puces du géant de la technologie.

Lire aussi  Journée mondiale de l'hépatite, l'importance de la détection précoce pour un traitement optimal

CONCURRENCE CROISSANTE

SK Hynix, qui a déjà vendu un HBM3E à 8 couches à Nvidia, a également fourni des échantillons de produits à 12 couches au concepteur de puces graphiques américain pour une évaluation des performances en vue d’une livraison à partir du troisième trimestre.

“Il est impossible d’obtenir un avantage concurrentiel en un instant”, a déclaré Kwak Noh-jung, directeur général de SK Hynix. “Mais nous ne ferons pas preuve de complaisance.”

(Avec l’aimable autorisation de SK Hynix)

C’était la première fois que Samsung et SK Hynix étaient en concurrence pour fournir simultanément le même produit à un seul client – Nvidia, le seul client HBM3E au monde. Nvidia devrait passer des commandes d’une valeur de plus de 10 000 milliards de wons (7,3 milliards de dollars) cette année.

Les deux rivaux sud-coréens devraient remporter les contrats, mais leurs volumes d’approvisionnement seront différents, ont indiqué des sources du secteur.

PRODUIT SUR MESURE

HBM, une puce mémoire haute performance empilant plusieurs DRAM verticalement fabriquées selon le processus Through Silicon Via (TSV), est un composant essentiel des puces IA dans le traitement de grands volumes de données.

HBM est optimisé pour une unité de traitement graphique (GPU), un cerveau pour un accélérateur d’IA – une classe d’accélérateur matériel spécialisé ou de système informatique conçu pour accélérer les applications d’IA et d’apprentissage automatique – car sa bande passante et sa capacité de stockage sont plus de 10 fois plus grandes. que les chips ordinaires.

Les puces de nouvelle génération sont adaptées aux clients car leur fabrication nécessite une technologie de pointe.

Sa popularité croissante a modifié le paysage de l’industrie des puces mémoire, qui se concentrait sur les produits à usage général.

DÉMARRAGE LENT

L’industrie mondiale des puces mémoire a commencé à développer HBM depuis que les fabricants de cartes graphiques pour jeux tels que Nvidia et Advanced Micro Devices Inc. (AMD) ont demandé à produire des puces DRAM à bande passante élevée en 2010. Ces clients avaient besoin de fabriquer des cartes graphiques capables de traiter de grandes quantités de données. de données de pixels pour gérer les jeux haute définition, à une époque où les performances de la DRAM pour les GPU étaient faibles.

Lire aussi  Les ours sont maintenant Austin Ekeler loin d'un monstre à 3 têtes

SK Hynix s’est associé à AMD pour mener des recherches et a dévoilé un HBM lors de la conférence internationale sur les circuits à semi-conducteurs en février 2013.

En juin 2015, Lisa Su, PDG d’AMD, a présenté un autre HBM lors d’un événement de jeu. Ses performances n’étaient cependant pas suffisantes pour compenser les dépenses de production élevées. Le prix du HBM était presque le triple de celui du graphique à double débit de données (GDDR), car la méthodologie de packaging 2.5D a été appliquée au processus TSV pour connecter le GPU et le HBM. Cela a amené le concepteur américain de puces sans usine à renoncer à ajouter du HBM aux cartes graphiques.

Nvidia a décidé d’installer HBM sur des serveurs car le produit était cependant adapté au traitement de grandes quantités de données. Le fabricant dominant d’accélérateurs d’IA, avec une part de marché de 97,2 % en 2023, a équipé HBM2 de son accélérateur de centre de données Tesla P100 en 2016.

Cette décision n’a pas élargi le marché HBM, qui ne représentait que 5 % des ventes mondiales totales de DRAM, car la demande d’accélérateurs d’IA est restée faible.

PAYÉ AVEC L’IA

Le marché HBM a connu une croissance significative depuis l’émergence de l’IA générative telle que ChatGPT en 2022, ce qui a incité les grandes entreprises technologiques mondiales à se précipiter pour investir dans le secteur.

SK Hynix a été le principal bénéficiaire, car la société était le seul fabricant de puces capable de fabriquer le HBM3, le produit de quatrième génération avec une bande passante de 819 Go par seconde, soit 6,4 fois les 128 Go du HBM de première génération. La société sud-coréenne représentait plus de 90 % du marché mondial du HBM3, tandis que Samsung n’a pas réussi à partager le boom en arrêtant de développer le HBM en 2019.

Lire aussi  Evan Fournier veut que les Knicks « fassent mieux les choses simples »

Les prix des HBM3 seraient plus de cinq fois supérieurs à ceux des DRAM ordinaires et leurs marges bénéficiaires seraient d’environ 50 %.

Grâce aux produits de nouvelle génération, SK Hynix a enregistré un bénéfice d’exploitation de 2.900 milliards de wons au premier trimestre, bien plus que les 1.900 milliards de wons de Samsung.

La société basée à Suwon, en Corée du Sud, a récemment lancé la production en série de HBM3, mais il n’a pas été facile de rompre la coopération entre Nvidia et SK Hynix à court terme.

NVIDIA DEMANDE D’ACCÉLÉRER

Samsung se prépare à affronter SK Hynix avec son HBM3E à 12 couches, qui sera probablement utilisé pour les accélérateurs d’IA de nouvelle génération de Nvidia, tels que le B200 et le GB200.

Le B200 nécessite huit HBM3E à 8 couches, par rapport aux précédents H100 et H200, qui sont équipés respectivement de quatre HBM3 et six HBM3. Les versions améliorées du B200 et du GB200 devraient nécessiter plus de huit HBM3E à 12 couches.

Ce montant devrait presque quadrupler pour atteindre 16,9 milliards de dollars cette année, contre 4,4 milliards de dollars en 2023. Le marché devrait encore croître d’ici 2030.

Jensen Huang, PDG de Nvidia (Photo d’archives, gracieuseté de Reuters via Yonhap)

Le PDG de Nvidia, Huang, aurait demandé à Samsung et à SK Hynix d’accélérer leurs livraisons, intensifiant ainsi leur concurrence.

Cela pourrait donner à Samsung des chances de battre SK Hynix sur le marché HBM, mais à SK Hynix des opportunités de conserver son trône, ont indiqué des sources du secteur.

Écrire à Jeong-Soo Hwang à [email protected]

Jongwoo Cheon a édité cet article.



#Samsung #forme #une #équipe #pour #remporter #contrat #puces #avec #Nvidia
1715000796

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT