新着Pick
590Picks
シェアする
pick
Pick に失敗しました

人気 Picker
AIがそう学習したということは、意図的ではないにせよ、人もこれまでそうした判断をしてきたということだろう。
荘司さん、みなさん、AIは中立的、というのは必ずしも正しくありません。

おそらくこれは過去の例からSupervised learning(教師付き学習)させたのでしょう。その際、機械学習は教師データの傾向を真似するだけです。たとえば履歴書の文面と人間による評価をセットにして教師データとしたとします。その人間による評価が差別的に行われていたとします。すると当然、機械学習は人間の差別的価値判断を学習(真似)します。

子供が学校で汚い言葉を使っているとき、ああきっと親もああいう言葉を使っていたのね、となりますよね。同じです。AIが差別をしていたというなら、それは学習元の潜在的な人間に差別があったことを示唆しているのかもしれません。

AIといえば聞こえがいいですが、機械学習がやっていることは根本的には統計処理と同じです。使っているモデルが途方もなく複雑なだけです。だから、アルゴリズムが「女性チェス部の部長」という言葉に反応して評価を下げる傾向があったというなら、それは過去の人間による評価を統計にかけた結果、人間たちが「女性チェス部の部長」という言葉に反応して評価を下げる傾向があったことが明らかになった、というだけのことかもしれません。
AIの特徴の一つとして「過去の延長線上に未来があると予想する」というものがあります。
まさに、人間が過去にやってきたことの延長線上なら、このような判定になるでしょうね。
ここに新しいパラメーターを加えるのが、人間のお仕事ということになるのでしょう。
「技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識した」
なるほど。過去の経験から学ぶことには長けているけれど、結果多様性を配慮することが出来ないのですね。
今後蓄積されていけばまた利用できるようにはなりそう。だたその時はまた社会が変化しているのでしょうか。。
なんかこの説明変じゃないですか?香港科技大の川口教授がtwitterで書いてましたけど(引用):

技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ」の理屈がよくわからない。男性条件付きでのスコアの分布が女性条件付きのそれよりよくないとそんな結果にはならないし。バンディットならたくさんサンプルある方がむしろ選択されにくいし。


まあそれはそうとAIで差別になるとまずいよね、というのは結構問題で、AirBnBで特定のグループ(中国系の人だったかな?)の評価が低くなるとか結構問題になってたような。そこらへんで働いてる詳しい人によると学習する際のデータにそういう情報を入れないとかすれば多少は直せるんだけども、強く相関している他の情報を拾ってde factoでは差別しちゃうみたいなのは出てきてより難しい、みたいな話だったような。違ってるかもしれないですが。
現在の主観性を排除するためにAIを活用しようと思っても、過去の主観→過去の判断基準の積み上げは、うまく機能しないということですね。
時の流れととも変わりゆく価値観の学習に関してはAIは苦手なのは、事例という過去から学習をするAIにとっては当たり前ですね…
スターウォーズで、C3POがたまに、こういう時に申し上げる適切な表現が見つかりませんでした…と言っていましたが、あれはAIを超えたテクノロジーなんですね。
妄想が膨らむ記事ですね。
AI採用の結果として女性差別になったとのことですが、amazonの場合は学習させる情報が適切でなかっただけです。しかし、男女比率なども学習させた上で、同じ結果になったとしたら、それにどう対処するのかで企業の姿勢が問われそうです。それでも女性差別だと判断して余計な手を加えたら、見方によっては男性差別に該当してしまうかもしれません。
AIを活用すると、想定している結末と実際の結末のギャップが大きく、それのチューニングがとても難しいです。今はAIがまだまだ日常生活に浸透していないので、”人の予想どおりの結末”をAIが導き出すほうがわかりやすく、受け入れられやすいので、各社必死にチューニング作業をしています。が、チューニングなしのAIオリジナルの結果の方がより適切な結果である可能性も十分あります。人間の理解を超えた答えを出すAIが日常生活に浸透した時が、本当のAI活用の始まりだと思います。
データにも組織にもダイバーシティが必要です。男子校・女子校状態ではAIにバイアスがかかるリスクがやはり大きいです。
AI採用はまだまだ発展途上。先進企業アマゾンも現時点ではこのような状況。しかし、ピープルアナリティクスという方向性がダメなわけではなく、こういう問題を解決していけばよい、ということ。

しかし、今回のケースはAIまでいかずとも、データベーストHRにおいてはある意味「あるある」。過去のデータからロジックを作るから、過去の問題点まで再現してしまう。今のハイパフォーマーがベストならよいが、たいていそんなことはない。なのに再現しようとする。

やはり理想や未来を創造する役割はまだまだ人間のものか。
【人事戦略デザイナーの視点】

私は、AI人事懐疑論者という訳ではありませんが、危惧していた事象が表面化しました。

発展途上の技術ですから、みんなでトライアルしながら良いものを見つけていく努力が必要です。

アマゾンの素晴らしい点は、捨てる決断をしたことです。

サンクコストを嫌い、もったいないという文化が支配的な日本では、こういう決定を下せる人が少ない。

AI人事プロジェクトでは、撤退シナリオやKPI管理限界を決めておく必要がありそうです。
Amazon.com, Inc.(アマゾン・ドット・コム)は、アメリカ合衆国・ワシントン州シアトルに本拠を構えるECサイト、Webサービス会社である。アレクサ・インターネット、A9.com、Internet Movie Database (IMDb) などを保有している。 ウィキペディア
時価総額
88.4 兆円

業績