Nouvelles Du Monde

SK Hynix commence la production en série d’une puce HBM3E pour Nvidia.

SK Hynix commence la production en série d’une puce HBM3E pour Nvidia.

2024-03-19 12:07:27

(Avec l’aimable autorisation de SK Hynix)

SK Hynix Inc., le deuxième fabricant mondial de puces mémoire, a lancé pour la première fois dans l’industrie la production en série de HBM3E, la puce DRAM la plus performante pour les applications d’intelligence artificielle, afin de la fournir au principal concepteur mondial de semi-conducteurs Nvidia Corp.

SK Hynix a annoncé mardi son intention de commencer la livraison de HBM3E, la version étendue de HBM3, ou mémoire à bande passante élevée 3, au client plus tard ce mois-ci. La puce devrait être appliquée à l’unité de traitement graphique (GPU) de Nvidia qui sera lancée au deuxième trimestre.

HBM3E est une mémoire DRAM de cinquième génération, succédant aux générations précédentes – HBM, HBM2, HBM2E et HMB3. Le géant technologique sud-coréen, qui a produit en masse le HBM3 pour la première fois au monde, a annoncé le succès du développement du HBM3E en août de l’année dernière.

“Grâce au succès de l’activité HBM et au partenariat solide qu’elle a établi avec ses clients au fil des années, SK Hynix consolidera sa position de fournisseur total de mémoire pour l’IA”, a déclaré Ryu Sungsoo, responsable commercial HBM de SK Hynix, dans un communiqué.

HBM est une mémoire haute performance et de grande valeur qui interconnecte verticalement plusieurs puces DRAM, augmentant considérablement la vitesse de traitement des données par rapport aux produits DRAM précédents.

Lire aussi  Le ministère de la Santé : « Vaccination anti Covid pour tous les plus de 60 ans »

La société, qui domine le marché mondial du HBM avec une part de 90 %, aurait commencé la production en série du HBM3E afin de le fournir aux clients pour la première fois dans l’industrie, ont indiqué des sources, bien que US Micron Technology Inc. l’ait annoncé le mois dernier. a commencé la production de la dernière puce pour le H200 de Nvidia.

MARCHÉ HBM EN CROISSANCE RAPIDE

Le marché mondial des HBM connaît une croissance rapide grâce à la forte croissance de la technologie de l’IA.

Les ventes de HBM devraient représenter 20,1 % du chiffre d’affaires total mondial des DRAM cette année, en forte hausse par rapport aux 8,4 % de 2023 et aux 2,6 % de 2022, selon l’organisme de suivi du secteur TrendForce. Les revenus mondiaux des DRAM devraient grimper de 62,3 % pour atteindre 84,2 milliards de dollars en 2024 par rapport à l’année précédente.

L’industrie mondiale de la DRAM devrait allouer environ 14 % de sa capacité totale à la production de HBM via le silicium via (TSV), avec une croissance annuelle estimée de l’offre en bits d’environ 260 %, a déclaré TrendForce dans une note sur Mondy.

Lire aussi  L'USB 4 version 2.0 prend en charge jusqu'à 120 Gbit/s asymétrique pour les écrans - Informatique - Actualités

SK Hynix et son plus grand rival Samsung Electronics Co., qui disposaient chacun d’une capacité de production HBM TSV de 45 000 unités par mois en 2023, ont les plans de production HBM les plus agressifs d’ici la fin de cette année, a déclaré TrendForce.

La capacité totale de HBM de Samsung devrait presque tripler pour atteindre 130 000 unités par mois d’ici la fin de l’année, tandis que la capacité de SK Hynix devrait plus que doubler pour atteindre 120 000 à 125 000 unités, a indiqué le cabinet d’études.

POUR TRAITER 230 FILMS FULL HD EN UNE SECONDE

SK Hynix a déclaré que son dernier HBM3E traite jusqu’à 1,18 téraoctets de données par seconde, ce qui équivaut au traitement de plus de 230 films Full HD de 5 Go chacun, en une seconde.

Les GPU Nvidia H200 Tensor Core contiennent de la mémoire HBM3E pour exécuter des modèles d’IA génératifs croissants (Capturé du site Web de Nvidia)

Le fabricant de puces a déclaré que le produit présentait une amélioration de 10 % de la dissipation thermique par rapport aux modèles précédents en adoptant une technologie appelée sous-remplissage moulé par refusion de masse avancée (MR-MUF), car il s’agit d’une clé pour contrôler la chaleur des mémoires IA, compte tenu de la capacité extrêmement élevée de la mémoire IA. opérations de vitesse.

Lire aussi  Il y a une semaine, neige et gel marquaient le nord de la Slovaquie : L'été est désormais là - Ménage - Actualités

Sa technologie avancée MR-MUF est essentielle pour garantir une production de masse stable du côté de l’offre de l’écosystème HBM, car la pression sur les puces empilées peut être réduite, tandis que le contrôle du gauchissement est également amélioré grâce à l’adoption de ce processus.

Par ailleurs, SK Hynix a déclaré qu’elle était sur le point de commercialiser le HBM3E à 12 couches pour répondre aux calendriers des clients.

“Nous visons à rendre le produit à 12 couches aussi fin que les modèles à huit couches conformément aux normes JEDEC”, a déclaré un responsable de l’entreprise, faisant référence à la JEDEC Solid State Technology Association, une organisation commerciale indépendante d’ingénierie des semi-conducteurs et un organisme de normalisation.

SK Hynix a dévoilé le mois dernier la première technologie HBM3E à 16 couches du secteur lors de la conférence internationale sur les circuits à semi-conducteurs à San Francisco.

Écrire à Ye-Rin Choi à [email protected]

Jongwoo Cheon a édité cet article.



#Hynix #produit #masse #une #puce #HBM3E #destinée #Nvidia
1710847593

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT