• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

イーロン・マスク氏のxAI、LLM「Grok-1」をオープンに

73
Picks
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • badge
    AI企業 旅する魔法使い

    > 3140億パラメータのMixture-of-Experts(MoE)

    オープンLLMとして最大パラーメータ数は、Meta社のLlama 2の700億なので、その4倍以上ですね。スケール則が成り立つなら、賢さも4倍。

    Mixture-of-Experts(MoE)は、GPT-4なども採用していると噂される、単一のネットワークではなく、複数の専門特化モデルを組み合わせるアーキテクチャ。

    公式サイトには、ベンチマークでの性能評価はなく、今後の発表や第三者による比較が待たれる。
    https://x.ai/blog/grok-os


注目のコメント

  • badge
    三菱総合研究所 執行役員兼研究理事 生成AIラボセンター長

    いきなり300bですか!
    twitter を学習したなら、カジュアルな日本語が得意だったりしないですか。


  • 某上場企業 内部統制部門 部長

    マスク氏は、ChatGPT3.5が世の中に出て騒がれた時には開発凍結を言い、そして今度はオープンにしろと言い、要はオープンAI社の独走をどうにかしたいだけにしか思えないのですよね。

    もし今でもマスク氏がオープンAIの内部の立場にいたら、こんなこと言わなかったんじゃないかな、とすら思う。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか