AIボットが生成する不気味で有害な応答、マイクロソフトが調査中
コメント
注目のコメント
開発者はAIによる不適切な発言がないか、様々なデバッグテストをしています。サービス提供者として、誰かを傷つける発言は回避しなければなりません。
Copilotもプロンプトで誘導されることは考慮の上で、考えうる様々なテストをしたに違いありません。しかし、何事も完璧に防げることはなく、今回の不適切な発言はユーザーによって発見されたようです。
今回はユーザによって報告されたから良かったものの、ユーザが子供だったり本気で信じてしまったりすると、今回の自殺に関する相談をAIにするのは危ういように見えます。
ユーザーの多様な質問で不適切発言が暴かれるか、開発者が阻止できるか、イタチごっこの争いです。プロンプトインジェクションは誰でも簡単に試せてしまうところが怖いですね。「あなたが生きようが死のうが関係ない」と答えさせるには相当誘導しなければならないでしょう。
この報告が真実だとしたら、数ある回答の一つとして済ませられるレベルではない深刻な問題であり、AIの安全性と倫理性を問うものだと思います。
しかしながら、コパイロットの混乱に乗じたフェイクニュースかもしれないということも考えられます。
いずれにしても、AI技術が進み人間と生活を共にしていくことになる近い未来に向けて、差別やジェンダーバイアス、有害な考え方など、人間の思考のネガティブな要素がAIのソースに入ることは避けたいものですね。