「ChatGPTは凡庸な悪」言語学の大家が指摘する、その本当の問題とは?
コメント
注目のコメント
次の記述を見る限り、AIはコーパス研究のコロケーション(共起)的な発想で文を生成しているのだと思いました。大量の言語データを分析し、結びつきの高い語のパターンを学習させているのだと思います。
> チャットGPTなどのAIは、膨大なデータで学習し、それを基に、可能性の高い言葉のつながりを次々と文章にしていく。チャットGPTの土台となったGPT-3の場合、その学習データ量は570ギガバイトに上る。
> しかし、文章の意味や真偽、事柄の因果関係などは判断していないため、しばしば虚偽の内容や奇異な文章を出力する、「幻覚」と呼ばれる現象が起きる。
そこでは、共起する確率の高い語を機械的に組み合わせているだけなので、生成する文の意味や真偽、因果関係をAIが判断できないのは必然です。
AIのよさというのは、機械的な組み合わせによって、人間が思いもつかなかったアイデアを生み出せる、というところにあると考えています。ジェームズ・W・ヤングが『アイデアのつくり方』で、いみじくも、アイデアとは既存の要素の新しい組み合わせと指摘したとおり、意味も考えず新しい組み合わせを次々と生み出すところに、AIの長所はあるように思いました。
ただ、それは「知性」ではなく、「演算」だと思います。言語でも画像でも、半分が受けとる側の経験に基づく想像と解釈で成り立つタイプのコミュニケーションメディアは、半分だけもで結構行けるってことなんでしょうねぇ、もう半分が結構適当でも
なので算数の言葉ではまだきついかもですねぇ、受けて手の想像で解釈だけでなく、送り手側で、多くの事例からのパターン抽象化が要りますので でもそれも時間の問題だとおもいますよ、だって小さいコはそうやって足し算覚えるんですから、計算ドリルで