SKハイニックス、AI向け「HBM」の25年受注枠ほぼ埋まる
AI要約(β版試験運用中)
- 1半導体大手SKハイニックスは生成人工知能向け半導体用の広帯域メモリーの受注枠が既に埋まり、2025年の枠もほぼ埋まったと明らかにした
- 2最新の12層「HBM3E」のサンプル送付を5月に開始し、第3・四半期に量産を開始する計画も公表した
- 3SKハイニックスのAIインフラ責任者によると、AI向け製品が半導体メモリー全体に占める割合は、金額ベースで23年の約5%から28年には61%に上昇するとの予想を示した
コメント
選択しているユーザー
注目のコメント
SK Hynixは、大量の注文を取れたので、それを処理する工場拡張が間に合わないと判断して、先日TSMCと先端パッケージで提携したのです。Hynixの得意なHBMは、TSMCの先端パッケージ技術が必要なのです。
また、韓国企業はライバル意識が高いので、HynixはSamsungへのライバル意識がものすごく強いです。そのために日本や米国と組むことさえも厭わないのです。AI用GPUにはHBMが不可欠、nvidiaのH100の次の高性能低消費電力のBlackwellの需要は、おそらく天井知らずでしょう。
次世代AIデータセンター投資のボトルネックは電力でしょうから、低消費でかつ高性能のサーバーを国家予算並みに買い付けるGAFAMにとって、Blackwellを搭載したモジュールをどれだけ調達できるのかが最重要な戦略だと思われます。
Skhynixに競争心むき出しのSamsungもちょっと出遅れたのかもしれません。Micronもしたたかに次の手を考えているようです。
メモリが低迷しても、AI用GPUの性能を決めるメモリであるHBMが、ウエハを大量に消費する歩留まり競争であれば、nvidiaとしてはSkhynixを優先するのは当然かもしれません。
AI半導体の需要はまだまだ大きくなるでしょうが、それを製造できるのは、TSMCという地政学的なリスクまで考慮しなければならない世界情勢も、気になりますが。危機を煽って勇ましい話にならなければいいのですが。