焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
コメント
選択しているユーザー
こういう欠陥(そもそも欠陥なのか?)が出ないと思って最初から運用してたのでしょうか。そうだとしたら、数ⅢCから勉強し直した方が良いレベルだと思いますので、多分このようなケースが増えてAmazonの人事戦略や組織戦略にマッチしないと判断したから打ち切りになったのではないかと個人的には思っております。採用の目的は公平性を保つことではなく、会社を強くするteamを創り上げることなので。
注目のコメント
荘司さん、みなさん、AIは中立的、というのは必ずしも正しくありません。
おそらくこれは過去の例からSupervised learning(教師付き学習)させたのでしょう。その際、機械学習は教師データの傾向を真似するだけです。たとえば履歴書の文面と人間による評価をセットにして教師データとしたとします。その人間による評価が差別的に行われていたとします。すると当然、機械学習は人間の差別的価値判断を学習(真似)します。
子供が学校で汚い言葉を使っているとき、ああきっと親もああいう言葉を使っていたのね、となりますよね。同じです。AIが差別をしていたというなら、それは学習元の潜在的な人間に差別があったことを示唆しているのかもしれません。
AIといえば聞こえがいいですが、機械学習がやっていることは根本的には統計処理と同じです。使っているモデルが途方もなく複雑なだけです。だから、アルゴリズムが「女性チェス部の部長」という言葉に反応して評価を下げる傾向があったというなら、それは過去の人間による評価を統計にかけた結果、人間たちが「女性チェス部の部長」という言葉に反応して評価を下げる傾向があったことが明らかになった、というだけのことかもしれません。一旦完全に男女の区別のない社会を作ってみたら、役割分担の大切さに気づくと思います。オリンピックの男女別廃止とか、温泉の清掃は男女均等に雇用とか、軍は男女半々にとかしても絶対に上手く行かないのだから、そこから差別でなく、シーンに応じて区別をしていくしかないという方向に向かうのがベストだと思います。
男女差別の少ない国はその辺の分別がとてもスムーズで上手い気がします。
このAmazonのAIの判断も全てが間違いという訳でなく、男女を区別する事がBetterな過去の事例を学習してる部分もあると思います。