生成AIの倫理的な使用--偏見や悪用の防止に向けた研究者の取り組み
コメント
注目のコメント
AI偏見は、学習データに存在する偏見を再現するだけでなく、偏見を機械学習が強化するのが問題です。
CEOが男性ばかりというのは、よく挙げられる例です。学習データが6割男性だったら、確率的には男性が6割生成されそうです。しかし、複数枚生成して、どれか最も妥当かと判定すると男性が1枚選ばれるでしょう。こうやって偏見が強化されてしまいます。
AI開発者はもちろん注意すべきですが、利用者にもAI偏見の認識を広める必要があります。生成AIが毎日のように取り上げられ、様々な活用用途が議論され進んでいく世界においては、弊社も技術的にどのようなAIの使われ方、そのユースケース、データの蓄積や整備などに関するスキルをつけていくわけですが、それと同じくして信頼あるデータの上に成り立つのか、信頼あるAIとなっているのか、 AI倫理そのものに対する教育にも全社員力を入れています。
AIがない世界にでも、人間、無意識のバイアスは誰しも存在する中、それに加えてバイアスが益々広がってしまうことがないようにAIによってそれが加速されてはならないので、AI倫理の正しさをよくよく理解していく必要があると思います。画像生成AIが生成する画像に固定観念に基づく偏見があるという問題ですが、例えばGoogle Image等の画像検索サービスなどでも同様の問題が割と以前から議論されていました。
生成AI故の全く新しい問題というわけではなく、倫理面や多様性を担保するあるべき出力のあり方といった論点に関しては過去の議論からも参照出来る点は多いと思います。