【独占取材】AI業界を騒がせる、話題の半導体ベンチャー
コメント
選択しているユーザー
AIの処理をNVIDIAのGPUに頼らずに「AI専用の半導体」、つまりAI専用のアクセラレーターやAI専用チップで代用することは十分に可能です。GoogleのTPUは、テンソル計算に特化したASICでありディープラーニング作業においてはGPUよりも高速で効率的です。
その他にもFPGA(Field-Programmable Gate Array)と呼ばれる、必要に応じて特定のアルゴリズムやプロセスに合わせて最適化できる汎用性のあるAI専用半導体もあります。
Groqは記事の通り推論に特化したASICでレスに対して有用性はありますが、新しいタイプのAIモデルやアルゴリズムに対応するためには新しいチップの設計が必要になるリスクを考慮する必要があり、更にはASICの設計と製造は高コストなため、大量生産ができるようなユーザーを獲得した後に経済合理性が実現できます。それまでは厳しい道のりになるかと思います。
個人的には、前述したFPGAがユーザー自身によって特定のタスクに合わせて柔軟に再構成可能であることから、汎用性が高く、有力な選択肢であると考えています。
注目のコメント
Groqのジョナサンにインタビューしたの,
NP凄すぎるな..
シリコンバレーはNvidiaとAIのお陰で半導体スタートアップに投資関心が寄せられており、まさにシリコンにVCが戻ってきたというジョークが語られてる。Groqの他にエッジ推論のHailoなども今生成AI界隈で話題のスタートアップ、Groqをご存じですか。AI半導体を手掛ける会社で、最大の特徴はスピード。「Groqを体験すると、ChatGPTが爺ちゃんに思えてくる」と言われるほど、AIのレスのスピードが速くなります。
とはいえ、「性能が良い」というだけで売れるほど甘くはないんじゃないか…AI半導体市場は、エヌビディアがほぼ独占しています。そこにスタートアップが入り込む余地はあるのか。
そんな疑問をぶつけるべく、Groq創業者にインタビューしました。顧客が簡単に試せるようにした売り方の工夫や、エヌビディアが押さえているサプライチェーンと競合しないための作戦、そして世界中にデータセンターを建設するための戦略。ひとつひとつに納得感があり、イメージが変わりました。
しかも、データセンターの候補地として日本を有力視しており、すでにいくつかの企業と話をしているとのこと。
少し長めのインタビューですが、色々なヒントが詰まったインタビューなので、ぜひともお読み頂けたら嬉しいです。AIモデルのカーネルソフトウェアをGroqのGPU(彼らはLPUと呼ぶ)に合わせてコンパイル(最適化)する。この発想が新しいです。
GPT-4の最大の弱点は遅くて高いこと。各社がAIモデルの代替品を求めています。GeminiやClaudeはかなり速く安く魅力的になってきました。
一方、エヌビディア はAIチップは高いけど速いと思われていました。これを高くて遅いと位置付けるようなGroqは破壊的です。