人種的偏見と闘うAIの新分野が求められている
コメント
注目のコメント
「偏見」を生むのはコードではなくデータですねぇ
ヒトも同じです
そして偏っているかどうか、その偏りを測る基準点と容認可不可の偏差値境界を決めるのもヒトです、多くの場合、その時点で「majority」に属する
ご参考
https://newspicks.com/news/5046698?invoker=np_urlshare_uid1506052&utm_source=newspicks&utm_medium=urlshare&utm_campaign=np_urlshareデータそのものに、バイアスがかかっているのが問題の根源である。人種偏見のデータ項目を教師データから除くクレンジングが最も重要であろう。即ち、個人的の属性を除く事である。
なので、データやAIが悪いのではなく、偏った、バイアスのデータしか無い事が問題である。AIによる美人コンテストが物議を醸したのも記憶に新しい。
https://beautytech.jp/n/nabb469fb826c
何かを判定するに当たって人がやってもAIがやってもバイアスはかかっているところ、後者が騒がれるのはスケーラビリティがあり、企画としてではなくインフラとして世の中に組み込まれてしまいうること、固定化してしまいそうなイメージがあること、バイアスを取り払うチャンスとも捉えられることなどが混在してのことだと思います。
理想を言えば、例えば面接官の採用面接の結果の偏りをAIが指摘して補正したりといった、バイアス補正のツールにもなりえる。
古くはクレジットのスクアリングなんかは人がやるよりずっとフェアである可能性が高い。(スコアの背景となる所得自体の偏りは別問題。)
バイアス問題を真剣に論じることは、AIの危険性でなく可能性を考えるきっかけでもあると思います。