「世界最長」20万字対応の大規模言語モデル 中国の「AI天才少年」が起業半年で発表
36Kr Japan | 最大級の中国テック・スタートアップ専門メディア
90Picks
コメント
注目のコメント
知識を増強するにはファインチューニングではなく、プロンプトに与えるインコンテキストラーニングが主流になりそうです。RAG:検索拡張生成と組み合わせることも多いでしょう。
では、知識ではなくタスク実行スキルを高めるのにも使えるかが気になります。手順書を与えて、その手順に沿ったタスク実行ができるのか?実験してみたいです。いやぁ。すごいですね。(語彙力がなくなります。)
起業半年で20万文字対応のLLMが実現できるとは・・・
依頼に対するより大量の情報が認識できればそれだけアウトプットしたい情報を認識して精度の高い結果を出すことができます。
自分のことを知るもう一人の自分がいれば、色々なことを先回りして実施する世界なども実現できそうですね。
SFの世界かもしれませんが、行動を取る前にやるべきことが終わっている。なんて世界も実現できそうです。中国4000年の歴史と10億人の人口、そして表現力豊かな漢字、極めつきは独裁によるリソースの集中。そのリソースの頂点である数人か数十人の天才が世の中を変えてしまう。