チャットGPT、「質問付き」回答で騙される人が減ることが判明
MITテクノロジーレビュー
7Picks
コメント
選択しているユーザー
チャットGPTというより、人の話に見える。
Wikipedia鵜呑みにする人の話とか、ネットの記事盲信する人の話と同様。
道具は容量用法を守って正しく使いましょう。に尽きるのでは。
注目のコメント
結局のところ、誤った回答をする生成AI側にリスクがあるのではなく、その回答を盲信してしまう人間側にリスクがあるということなのだと思います。
この研究によれば、生成AIが出力した回答に、読み手側にさらに論理性を問う質問を付け添えることで、その回答が正しいのかどうかを人が考え、気付くきっかけを与えることにつながり、むしろ人の思考力を高めることがわかったとのことです。
技術がこれだけ進化した現代であっても、インターネットの検索結果ですら鵜呑みにしてしまったりと、私たちはどこか「コンピュータは正しい」という妄信が頭に染み付いてしまっているのかもしれません。
論文執筆が課される大学院などでは「批判的読解」が教えられることがありますが、物事を疑い、なぜなのかを考えるような思考法が今後ますます必要になるはずで、使いようによっては生成AIがその能力を高めるきっかけになるのかもしれません。人の思考は、外的トリガーで発動することが多い。
GPT-3の回答に「読み手自身が論理性を確認するよう促す質問」が添えられると、それトリガーとなり、批判的思考が発動したのでしょう。
AIの進化だけでなく、人間の認知の仕組みを活用することが、AIと人間の協働でより重要になりそうです。