どんなに長い文章でも破綻しない生成AI「StreamingLLM」、キャラクターの性格や話し方を模倣するAIなど重要論文5本を解説
コメント
注目のコメント
長い文書を扱えるのは膨大な業務マニュアル等、企業では重要です。それだけでは無く、個人の情報つまりパーソナライズにとても有用でしょう。地道にLLMの実用性が高まっていることを感じます。
Large Language Models(LLM)は長文や専門的な業務マニュアルの処理において非常に有用で、これらのモデルは大規模なデータセットを学習し、幅広いトピックに対応できるため、企業の業務において様々な情報や文書を理解し、処理するのに適しています。
また、LLMは個人情報を含む文書を効果的に処理できるため、パーソナライズされた情報提供やコミュニケーションにも利用できます。LLMに関連した最新の研究が分かりやすくまとまっている良記事ですね。
何より、LLMのトークン制限というのは思ったよりも出来ることを制限してしまうので、StreamingLLMには期待です。
仮にGPT4が32Kトークンから4000Kトークンに拡張できたとしたら、100倍以上。
超大量のデータをベクトルDBなしで取り扱えるので、利便性が上がるだけではなく実用でも出来る幅が広がります。
個人的には、History Inputとして、「使えば使うほど自分になじんでくるLLM」みたいなものが実装できるようになってくるのでは、とか思ったりします。32Kではさすがに足らないし、ベクトルDBのような検索用途でも実現は困難です。
他のところだと、MiniGPT-5の研究にも興味を持ちました。
原著を読むと、T2I(テキストから画像を生成する)モデルのベンチマーク指標の構築に使えるのでは、と書かれていて、なるほどそういう使い方するのかと唸りました。