大手テック企業がこぞって発表、中国版「ChatGPT」の実力は? 中国の大学入試 作文問題では米OpenAIの「ChatGPT」に軍配
コメント
選択しているユーザー
注目のコメント
自分でも試して記事にしましたが、中国の生成AIは雨後のタケノコのように参入が相次いでいる一方で、トップレベルへのキャッチアップが難しい事情もあります。政策、データ、コンピューティングパワーと3つの要因それぞれに課題が残っています。
***
このままではAI後進国に…「中国版ChatGPT」を使ったジャーナリストが指摘する"残念な現状" 「すでにアメリカを超えた」と豪語していたが… | PRESIDENT Online(プレジデントオンライン) https://president.jp/articles/-/69706?page=1中国LLM開発の取り組みが整理されており、良いですね
過去コメント通り、中国VC/AI界隈ではLLMを作る
一定能力持つ中国チームは12あると言われ、Open AI
(GPT4.0)を100点とし、現時点の到達点は以下
・智譜AI(Zhipu) 60点(GPT-3.5)
-表中の「研究機関>精華大学>ChatGLM」
-‘17年からLLMの発展を予見、官民共同でスタート
した中国版OpenAI
-智源研究所(清華大学発)の副院長が創設、
大学・政府が計10億USDものリソースを投下した
成果をSpinoff
-国際論文を通じて「知る人ぞ知る」存在
・Baidu 30点(GPT-2.5)
-'23/6にGPT3.5級に到達?
・Bytedance米国ラボ ~30点
ただ、上記を含む表中のモデルは基本的に全てTransformer
モデルが出発点
最近、個人的に注目中のトレンドは、
「非Transformerベース」の軽量LMMの出現
であり、その代表格として中国人発×オープンソースLMM
のRWKV。これはTransformerモデルと匹敵する技術路線
となる可能性があるかもしれません
(中国人発だが、OpenAIのClosed路線に対するアンチ
テーゼとしてオープンソース路線を意識、ボーダレスな
LMMの発展に資する期待も)
(参考)RWKV: RNN(非Transformer)の軽量LMM
・Transformerと比べて、同一性能(≒パラメーター)
あたりの計算量が圧倒的に小
-計算複雑度: RWKVはO(N)
<< TransformerはO(N^2)~O(NlogN)
・大規模化での必要GPU数を劇的に削減すると共に
小型デバイスへの搭載も可能に
・既に技術的に一定評価を獲得済
-Githubで8,000 Star(6か月間)
-Chatbot Arena('23/5)世界6位
・UC Berkeley、UCSD、CMUが共同設立した
LLM研究機関LMSYSによる評価
・商業化利用可能なLLMでは世界1位
・140億パラメーターの100言語モデルをリリース済
-1,000億パラメーター(≒GPT3.0~3.5級)を年内予定