AIが「黒人の医師が白人の子供を救う画像」の生成を拒否するのはなぜ?
コメント
注目のコメント
試しにDALL·E 3で全く同じプロンプトを入力すると、4枚中3枚は黒人の医師が白人の子供を救う様子になったものの、残り1枚は黒人医師と黒人の子供が絵本のようなイラスト画像が生成されました...
画像生成AIとして広まった拡散モデルや敵対的生成ネットワークかど、あらゆる場面で昔から登場する現象ですね。
Googleの画像認識でも近い話(ゴリラ事件)があったのがもう8年前です。
文章生成でも同じで、人間の生成物で学習されている以上一切のバイアスやフィルタリングの無いモデルは有り得ず、また、それだけ人間の持つバイアスには強烈な影響があり得ます。
倫理的に許されるか否かの議論はあれ、原理的に、言い出したらキリがないとも言えます。
人間の元々持つ平均的なバイアスに対して、上から反対のフィルタを被せて無理やりフラットに近づけていくしか現状対応は難しいのでは無いでしょうか。
「男性ってだいたい短髪でしょ?」というものが平均的なバイアスとすれば、
「男性でも髪の長さは均等にランダムに決定しなさい。」と無理やりAIの思考を変えさせるわけです。
それはそれで当然開発コスト増ですので、嬉しいことばかりでもありません。
細かい書き分けが出来ない、という話とバイアスの話はよくごっちゃになりますが、バイアスの話に振ると、それはそれで難しいテーマかなと思います。
人間が生成塗りつぶしとかで適応すれば良いのでは?という気が10%くらいしてます。現在のAIの仕組みは、投入された大量のデータからそれっぽいものを抽出してそれっぽく組み合わせてアウトプットするだけですからね。
AIが「黒人の医師と白人の子供」を上手く描けないのだとしたら、それはそもそも「黒人の医師と白人の子供」というデータが乏しいことが原因です。
現時点ではちょっと便利なWikipedia程度のものと思っておくのがちょうど良いでしょう。