• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

SKハイニックス、AI向け「HBM」の25年受注枠ほぼ埋まる

19
Picks

AI要約(β版試験運用中)

  1. 1
    半導体大手SKハイニックスは生成人工知能向け半導体用の広帯域メモリーの受注枠が既に埋まり、2025年の枠もほぼ埋まったと明らかにした
  2. 2
    最新の12層「HBM3E」のサンプル送付を5月に開始し、第3・四半期に量産を開始する計画も公表した
  3. 3
    SKハイニックスのAIインフラ責任者によると、AI向け製品が半導体メモリー全体に占める割合は、金額ベースで23年の約5%から28年には61%に上昇するとの予想を示した
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • チームラボ Digitalart R&D

    AIにしか使い道がないHBMって、AIブームが落ち着いたらどうなるんだろ。


注目のコメント

  • badge
    News & Chips 国際技術ジャーナリスト

    SK Hynixは、大量の注文を取れたので、それを処理する工場拡張が間に合わないと判断して、先日TSMCと先端パッケージで提携したのです。Hynixの得意なHBMは、TSMCの先端パッケージ技術が必要なのです。
    また、韓国企業はライバル意識が高いので、HynixはSamsungへのライバル意識がものすごく強いです。そのために日本や米国と組むことさえも厭わないのです。


  • なし なし

    AI用GPUにはHBMが不可欠、nvidiaのH100の次の高性能低消費電力のBlackwellの需要は、おそらく天井知らずでしょう。
    次世代AIデータセンター投資のボトルネックは電力でしょうから、低消費でかつ高性能のサーバーを国家予算並みに買い付けるGAFAMにとって、Blackwellを搭載したモジュールをどれだけ調達できるのかが最重要な戦略だと思われます。
    Skhynixに競争心むき出しのSamsungもちょっと出遅れたのかもしれません。Micronもしたたかに次の手を考えているようです。
    メモリが低迷しても、AI用GPUの性能を決めるメモリであるHBMが、ウエハを大量に消費する歩留まり競争であれば、nvidiaとしてはSkhynixを優先するのは当然かもしれません。
    AI半導体の需要はまだまだ大きくなるでしょうが、それを製造できるのは、TSMCという地政学的なリスクまで考慮しなければならない世界情勢も、気になりますが。危機を煽って勇ましい話にならなければいいのですが。


  • HBMは凄い技術ですね。もう自分たちの知ってるDRAMでは無い認識ですし、マザーボードがワンチップになる時代なんですね。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか