[半導体] Jusqu'où Micron Technology, aux États-Unis, peut-elle s'impliquer face aux entreprises sud-coréennes ? HBM (High Bandwidth Memory) qui propulse la croissance de l'industrie | 5 actions tendance de la bourse américaine par Jun Ishihara | Manekuri, un média utile pour les informations d'investissement et l'argent de Monex Securities.

Les performances d'apprentissage et d'inférence de l'IA sont influencées par la « mémoire ».

DRAM est une mémoire « temporaire », NAND est une mémoire « de stockage à long terme »

La DRAM et la NAND des semi-conducteurs sont toutes deux des dispositifs de stockage (mémoire) pour conserver des données, mais leurs usages et caractéristiques diffèrent. La DRAM est une mémoire utilisée pour le "stockage temporaire" dans les ordinateurs et les smartphones. C'est une "mémoire volatile" qui ne conserve les données que tant que l'alimentation est active, et les données disparaissent lorsque l'alimentation est coupée. Sa vitesse de traitement pour la lecture et l'écriture des données est rapide, ce qui en fait un composant essentiel pour augmenter la capacité de traitement.

D'une part, le NAND est une mémoire "de stockage à long terme" utilisée dans des dispositifs tels que les clés USB, les smartphones et les SSD (disques à état solide). C'est une "mémoire non volatile" qui conserve les données même lorsque l'alimentation est coupée, et elle est utilisée pour le stockage de données telles que des photos, des vidéos et des applications. Bien que l'écriture prenne un peu de temps, sa caractéristique principale est sa capacité à stocker une grande quantité de données.

On dit que, en raison de leurs caractéristiques respectives, la DRAM joue le rôle d'un "bureau de travail" axé sur la vitesse, tandis que le NAND joue le rôle d'un "tiroir" axé sur le stockage. Les trois grands fabricants de mémoire sont Samsung Electronics, SK Hynix et l'américain Micron Technology [MU], et en tant qu'entreprise japonaise, l'ancienne Toshiba Memory, Kioxia Holdings (285A), détient une part de marché élevée.

Avec la popularité croissante de l'IA générative et du cloud, la demande pour des mémoires telles que la DRAM et la NAND augmente à nouveau. En particulier, la demande pour la HBM (High Bandwidth Memory : mémoire à large bande passante) parmi les DRAM s'accroît rapidement. Dans le développement des serveurs AI, augmenter la capacité de stockage et la vitesse de lecture/écriture de la mémoire améliore la performance globale, plutôt que d'utiliser des semi-conducteurs de traitement d'image de pointe (GPU) coûteux. En d'autres termes, les performances de l'apprentissage et de l'inférence de l'IA dépendent de la mémoire.

HBM largement intégré dans les GPU de pointe d'NVIDIA [NVDA]

HBM est une technologie de mémoire de nouvelle génération qui empile des puces de mémoire verticalement, réalisant une bande passante élevée (largeur de voie de données) et offrant une vitesse de transfert de données plus rapide que la DRAM traditionnelle, tout en ayant une faible consommation d'énergie. Initialement développée pour traiter des graphismes haute performance, la demande pour HBM en tant qu'accélérateur pour l'IA et le HPC (calcul haute performance), ainsi que pour les centres de données, est en pleine expansion.

Les GPU (semi-conducteurs de traitement d'images) de pointe d'NVIDIA [NVDA] sont équipés d'une grande quantité de HBM. En effet, dans des modèles d'IA à grande échelle comme ChatGPT d'OpenAI, les GPU intégrant HBM sont essentiels.

Selon les taux de croissance par secteur de produits de la "Prévision du marché des semi-conducteurs de printemps 2025" publiée par WSTS (World Semiconductor Trade Statistics) le 3 juin, il a été confirmé à nouveau que le taux de croissance du marché de la mémoire en 2024 est de 79,3 %, montrant une forte augmentation par rapport aux autres produits. Bien que le taux de croissance devrait ralentir entre 2025 et 2026, une croissance supérieure à celle des analogiques et des microcontrôleurs est prévue.

[Figure 1] Évolution des taux de croissance par produit sur le marché des semi-conducteurs Source : données WSTS, élaborées par l'auteur

[Tableau 2] Chiffre d'affaires DRAM en 2022, 2023, 2024 (prévisions) et part de HBM Source : Créé par l'auteur à partir des données de TrendForce C'est HBM qui tire cette croissance. Selon la société d'études de marché TrendForce, le chiffre d'affaires du marché des mémoires, qui avait temporairement chuté en 2023, devrait à nouveau atteindre environ 80 milliards de dollars d'ici 2024. Les ventes d'HBM, qui représentaient moins de 10 % du total, devraient plus que doubler, et en 2024, le chiffre d'affaires d'HBM devrait représenter 20 % du total. À l'avenir, la croissance d'HBM est considérée comme un moteur clé de la croissance de l'ensemble de l'industrie des semi-conducteurs.

La demande de HBM explose, la rentabilité pourrait atteindre dix fois celle de la DRAM précédente ?

Le géant des semi-conducteurs, Micron Technology, a annoncé le 25 juin que pour le troisième trimestre de l'exercice 2025 (de mars à mai 2025), le chiffre d'affaires a augmenté de 37 % par rapport à l'année précédente, atteignant 9,31 milliards de dollars, et le bénéfice net a été multiplié par 5,7, s'élevant à 1,885 milliard de dollars. Le chiffre d'affaires des centres de données a plus que doublé par rapport à l'année précédente, établissant un nouveau record pour le trimestre. En particulier, le HBM utilisé dans les serveurs AI a atteint des ventes records. Le HBM est de 5 à 10 fois plus rentable que les autres DRAM.

[Figure 3] Chiffre d'affaires et résultat net de Micron Source : Élaboré par l'auteur à partir des documents financiers Les revenus des unités commerciales de Micron Technology montrent que le secteur Compute & Networking, qui comprend la HBM pour les centres de données et la DRAM à grande capacité, a augmenté de 11 % par rapport au trimestre précédent (une augmentation de 97 % par rapport à l'année précédente). De plus, en raison de l'augmentation des SSD (disques à état solide) pour les centres de données, le stockage a augmenté de 45 % par rapport au trimestre précédent (une diminution de 2 % par rapport à l'année précédente).

【Tableau 4】Chiffre d'affaires par unité commerciale de Micron Technology (en millions de dollars) Source : Élaboré par l'auteur à partir des documents financiers

Micron Technology [MU] commence l'expédition d'échantillons de produits de prochaine génération, la concurrence entre les fabricants de semi-conducteurs s'intensifie.

Micron Technology a déclaré que l'expansion de la production en série de HBM et la feuille de route de développement des produits avancent bien, et prévoit qu'à la fin de 2025, la part du HBM atteindra un niveau similaire à celle de la part actuelle du DRAM dans son ensemble. Cela représente une réalisation plus précoce que prévu précédemment. Micron expédie actuellement HBM en grande quantité à quatre clients, ciblant à la fois les plateformes GPU (processeurs graphiques) et ASIC (circuits intégrés spécifiques à une application), mais il y a également des mouvements de la part des clients pour sécuriser les produits plus tôt que prévu.

Le PDG de Micron Technology, Sanjay Mehrotra, a déclaré que la demande sans précédent pour des mémoires et des stockages haute performance est due à l'IA, et que "nous sommes sur la voie d'atteindre des ventes records, des marges bénéficiaires solides et un flux de trésorerie disponible pour l'exercice 2025. Dans le même temps, nous continuerons à investir de manière disciplinée pour renforcer notre leadership technologique et notre excellence en fabrication afin de répondre à l'expansion de la demande de mémoire alimentée par l'IA."

Concernant le quatrième trimestre, une forte demande pour la mémoire devrait se poursuivre, avec une prévision de chiffre d'affaires atteignant 10,7 milliards de dollars (moyenne des prévisions), soit une augmentation de 15 % par rapport au trimestre précédent, un niveau record. Les bonnes conditions telles que la croissance continue de l'IA dans les centres de données sont réunies, et il est assuré qu'une augmentation significative des revenus pourra être réalisée pour l'exercice se terminant en août 2025.

Micron Technology a annoncé qu'elle avait commencé à expédier des échantillons de son produit de nouvelle génération HBM, le "HBM4", à certains clients début juin. La production de masse est prévue pour 2026. Cela vise à accélérer les performances d'inférence dans les systèmes LLM (modèles de langage de grande taille). Par rapport au produit HBM3E de Micron Technology, destiné à l'IA de génération actuelle, les performances ont été améliorées de plus de 60 % et l'efficacité énergétique a été améliorée de 20 %.

Micron Technology a lancé la construction d'une usine avancée d'emballage HBM à Singapour en vue d'un démarrage des opérations en 2026. Le montant total de l'investissement est de 7 milliards de dollars. Actuellement, Micron Technology est en position de suivre les géants sud-coréens comme SK Hynix et Samsung Electronics, mais jusqu'où pourra-t-il s'immiscer ? La concurrence entre les fabricants de mémoire semiconducteurs semble se renforcer, alors qu'ils cherchent à capter le marché en pleine expansion de l'IA.

Cinq actions remarquables d'Ishihara Jun

Micron Technology [MU] Source : TradeStation

NVIDIA [NVDA] Source : TradeStation

Amazon.com[AMZN] Source : TradeStation

Alphabet[GOOGL] Source : TradeStation

Microsoft[MSFT] Source : Trade Station

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)