新着Pick
588Picks
シェアする
pick
Pick に失敗しました

人気 Picker
AIがそう学習したということは、意図的ではないにせよ、人もこれまでそうした判断をしてきたということだろう。
荘司さん、みなさん、AIは中立的、というのは必ずしも正しくありません。

おそらくこれは過去の例からSupervised learning(教師付き学習)させたのでしょう。その際、機械学習は教師データの傾向を真似するだけです。たとえば履歴書の文面と人間による評価をセットにして教師データとしたとします。その人間による評価が差別的に行われていたとします。すると当然、機械学習は人間の差別的価値判断を学習(真似)します。

子供が学校で汚い言葉を使っているとき、ああきっと親もああいう言葉を使っていたのね、となりますよね。同じです。AIが差別をしていたというなら、それは学習元の潜在的な人間に差別があったことを示唆しているのかもしれません。

AIといえば聞こえがいいですが、機械学習がやっていることは根本的には統計処理と同じです。使っているモデルが途方もなく複雑なだけです。だから、アルゴリズムが「女性チェス部の部長」という言葉に反応して評価を下げる傾向があったというなら、それは過去の人間による評価を統計にかけた結果、人間たちが「女性チェス部の部長」という言葉に反応して評価を下げる傾向があったことが明らかになった、というだけのことかもしれません。
AIの特徴の一つとして「過去の延長線上に未来があると予想する」というものがあります。
まさに、人間が過去にやってきたことの延長線上なら、このような判定になるでしょうね。
ここに新しいパラメーターを加えるのが、人間のお仕事ということになるのでしょう。
「技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識した」
なるほど。過去の経験から学ぶことには長けているけれど、結果多様性を配慮することが出来ないのですね。
今後蓄積されていけばまた利用できるようにはなりそう。だたその時はまた社会が変化しているのでしょうか。。
なんかこの説明変じゃないですか?香港科技大の川口教授がtwitterで書いてましたけど(引用):

技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ」の理屈がよくわからない。男性条件付きでのスコアの分布が女性条件付きのそれよりよくないとそんな結果にはならないし。バンディットならたくさんサンプルある方がむしろ選択されにくいし。


まあそれはそうとAIで差別になるとまずいよね、というのは結構問題で、AirBnBで特定のグループ(中国系の人だったかな?)の評価が低くなるとか結構問題になってたような。そこらへんで働いてる詳しい人によると学習する際のデータにそういう情報を入れないとかすれば多少は直せるんだけども、強く相関している他の情報を拾ってde factoでは差別しちゃうみたいなのは出てきてより難しい、みたいな話だったような。違ってるかもしれないですが。
データにも組織にもダイバーシティが必要です。男子校・女子校状態ではAIにバイアスがかかるリスクがやはり大きいです。
AI採用はまだまだ発展途上。先進企業アマゾンも現時点ではこのような状況。しかし、ピープルアナリティクスという方向性がダメなわけではなく、こういう問題を解決していけばよい、ということ。

しかし、今回のケースはAIまでいかずとも、データベーストHRにおいてはある意味「あるある」。過去のデータからロジックを作るから、過去の問題点まで再現してしまう。今のハイパフォーマーがベストならよいが、たいていそんなことはない。なのに再現しようとする。

やはり理想や未来を創造する役割はまだまだ人間のものか。
【人事戦略デザイナーの視点】

私は、AI人事懐疑論者という訳ではありませんが、危惧していた事象が表面化しました。

発展途上の技術ですから、みんなでトライアルしながら良いものを見つけていく努力が必要です。

アマゾンの素晴らしい点は、捨てる決断をしたことです。

サンクコストを嫌い、もったいないという文化が支配的な日本では、こういう決定を下せる人が少ない。

AI人事プロジェクトでは、撤退シナリオやKPI管理限界を決めておく必要がありそうです。
AI採用は特にフラットな結果が出づらいですね。人事の採用担当者の仕事を自動化して効率は良くなると思うけど、偏りをなくすチェック機能を入れないと全自動では難しいと思います。
「技術職のほとんどが男性からの応募だったことで、
 システムは男性を採用するのが好ましいと認識した」

実はこれ自体は女性差別とは言い切れません。
技術者母集団の90%が男性ならば、一定レベル以上の技術者のうち90%が男性である可能性は高いからです。
もし、AIが90%男性、10%女性選んだなら、それはありです。

問題は、AIが優秀な技術者を選ぶ基準として、性別フラグ=男性だけでなく、男性に相関のある特徴量を重視してしまうからです。
結果として、AIは例えば99%を男性、1%を女性の割合で選んでしまいます。
つまり「差別の拡大」こそが問題なのです。

元の採用基準に性差別が無くてもそうなりがちですから、元々性差別があれば、さらに差別を加速しやすいです。

人が判断しても差別拡大あるいは差別固定化の問題を抱えています。ただし、AIは大量に瞬時に判断できるので差別を加速してしまい、影響が大です。
Amazon.com, Inc.(アマゾン・ドット・コム)は、アメリカ合衆国・ワシントン州シアトルに本拠を構えるECサイト、Webサービス会社である。アレクサ・インターネット、A9.com、Internet Movie Database (IMDb) などを保有している。 ウィキペディア
時価総額
97.0 兆円

業績