• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も

wirelesswire.jp
9
Picks
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • エネルギーアナリスト/ポスト石油戦略研究所代表

    今最もホットな話題の1ビットLLM(正確には1, 0, -1の3つの値のみを使うのでlog[2](3)=1.58 bit)生成系のAIでは学習コストよりも推論コストの方がビジネス上重要なので、メモリや消費電力の節約が重要になる。

    LLMの推論計算の大半を占めていた16ビット浮動小数点の行列演算(無数の加算と乗算)を、整数の加算のみに変換することで、モデルサイズが大きくなると(30億以上)メモリ使用量を減らして高速化できるなどメリットが出てくる。

    エネルギー消費量はモデルサイズがある程度小さくてもメリットがでるようで、7nm チップ上の演算エネルギー従来モデル(LLaMA LLM)と比べ71.4分の1。End-to-Endでも、モデルサイズ1.3Bで18.6倍効率的、70Bで41.2倍効率的という結果。


注目のコメント

アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか