過熱する“生成AIブーム”に対する研究者の本音
コメント
注目のコメント
今起きているのは、大規模言語モデル(LLM)の衝撃ですが、それは「データ量で殴る」方式、が思いのほか通用してしまった、ということです。
数千億、さらには兆単位のパラメータのデータをAIに食べさせてしまえば、それで、「自然な会話」くらいはできてしまった、ということです。
指示されたプログラムのコードを書いたり、医者の問診や弁護士の陳述、コンサルティングのご提案なども、書けそうだということになってきました。新聞の記事なども、ましてや社説などであれば、それらしいものはもう書けるでしょう。
大学の授業のシラバスくらいは書けるだろうし、いずれ実験データに基づいて論文を書くこともできるかもしれません。
大規模言語モデルの衝撃、というのは、つまり言語のパターンを大量に覚えさせてしまえば、状況に応じて人間と同じような会話、業務上の文書作成などもできるようになってしまった、ということです。
これは、生身の人間も、つまりは覚えている言語のパターンを状況に応じて繰り返しているだけの機械と変わらないのではないか、ということでもあります。
AIが書いたプログラムのコードが間違えていることはあります。しかし、これは人間のプログラマでも間違ったコードを書くことはあります。
AIにするか、人間のプログラマがいいか、は、間違えの頻度の問題で、間違えをチェックする仕組みが必要、ということは、これまでと変わりありません。
大規模言語モデルは、単純な仕組み(とにかく大量のデータを食べさせて、状況に合わせた検索結果を表示する)で、「人間らしい」「自然な」会話だけならできる、ということを示しました。
さらにいえば、大量のデータを活用して導き出す文章も書けます。
従来、AIに論理的思考の能力を与えて、推論ができなければ、人間らしい思考はできないと考えらえていました。大規模言語モデルが示したのは、思考などしなくても人間らしい会話はできる、ということです。
帰納だけではなく演繹もできて、さらに背理法なども使いこなせる、論理的思考のできるAIというのは、大規模言語モデルを発展させてもできないでしょう。
単なる「人間らしい」「自然な」量産型の会話や文書以上のものをつくりだすAI、というのは、まだずっと探究を必要とします。昨秋から世界中で話題を席巻している生成AIですが、研究者には現状がどう映っているのか。またこの先どんな革新が起きるのか。
深層学習を含む学習機構の研究を手掛ける東京大学大学院の鈴木大慈准教授と、NTTデータで企業のAI実装などを主導する谷中一勝・テクノロジーコンサルティング事業本部長の対談です。前に堀江さんの動画で言ってた、
「ニューロンなど脳神経細胞は昆虫にもある。でもこれらが大量に結合すると何故か急に賢くなる」
って話は、まさに大規模言語モデルそのものですよね。
でも人の脳と圧倒的に違うのはChatGPTは恐ろしく電力を消費する事でしょう。
しかし人間の脳はおよそ100兆以上のパラメータと言われてますから、さらに学習データを食べさせたらその内人の知能は超えそうですね。
また、AIが多くの肉体労働の代替をするのはまだ先のようです。
汎用性のあるロボットの開発は非常にハードルが高い。
ここの分野はまだ開発が容易なパワーアシストスーツの開発が急務なように思います。
超高齢社会の日本においては福祉の負担軽減にも労働参加率の向上にも効果があるように思います。