【解剖】なぜ、AIの文章は「浅く」見えるのか
コメント
選択しているユーザー
ChatGPTが作る文章を読んで「頭が悪い」とは思いませんが「物足りない」とは思います。その「物足りなさ」は「身体性の欠如」によるものなのかなと考えていました。私が考える「身体性」は、プレバト!でよく夏井先生が言う「実体験を伴った言葉は強い」とほぼ同意です。同じ言葉でも使う人によって強さが違うと感じることがありますが、それは「(その体験を)いかに強く実感したか」というところにあるように思います。ChatGPTが作る文章を読み、そこになんらかのストーリーを感じたり意味付けしたりするのは、人間の仕事、あるいは性(サガ)でしょうか。そこからなんらかの実体験が想起され、新たな言葉や文章として生まれ変わった時、身体性が備わるのかもしれません。
注目のコメント
生成AIが一般論を語りがちで、体験談やロジックが苦手なのはその通りですね。
ただ、対話を通じて粒度を細かくしてゆくと、だんだん具体的な解像度の高い話しになってゆきます。そこにヒントを得て自分で書くのが良さそうです。なるほどと思わせることは多いですから。
もっとも生成AIは作話が得意です。対話の解像度を上げてから「具体的な企業名や業務内容を設定して、体験談として短いストーリーを創作してください」と頼めば、体験談のようにロジカルに語ってくれます。
なのでこの記事はやや違和感がありました。言葉に「知性」を感じるとは、どういうことなのか。
今回、ChatGPTに2つほどの例題を出したとき、その回答の瑕疵が、私にはすぐにはわかりませんでした。とくにハッとさせられる部分はないけれど、ちゃんと答えてあるし、問題はないのでは……?と。
この「ハッとさせられる部分がない」という点が、単に「いまいち面白くない」ということ以上に、根源的な問題をはらんでいることを、明快に解説してくださったのはベストセラー『頭のいい人が話す前に考えていること』の著者、安達裕哉さんです。
ひるがえって、自分たちの言葉に「知性」は宿っているのか、改めて振り返るきっかけになるインタビューです。ChatGPTは世の中の縮図、というか一般的にどう思われているかを知るには便利だなと改めて思いました。おそらく「解像度の高い実例」を語れないのは、「解像度の高い実例」が世の中に出回っていないことの裏返しなんでしょうね。