「まさにブラックボックス」AIによる人事評価 情報開示求め、日本IBM労組が申し立て
コメント
選択しているユーザー
注目のコメント
もうこんな世界が始まっていたのですね〜。
アルゴリズムの説明がないと納得感無いのはよく分かりますが、より主観的にならないために導入されたのかなという気も。
"日本IBMは2019年8月14日付けで、IBMが開発したAI「ワトソン」によって従業員を評価して賃金を決める仕組みの導入をグループ社員に通達した"Watsonという名の通ったAIを活用しているから目立ち、テクノロジー対人間みたいな構図にも見えるのだが、実態は上司のマネジメント能力に対しての不満が露呈しただけではないだろうか。AIが最終的な人事評価を行っているのであれば、ディストピアな感じだが、AIが示すデータを見た上で上司が最終判定をしているのであれば、評価結果については上司が説明責任を果たさなければならない。そのAIが自社製品であり、他社にも提供しているものであればなおさら自社で使うのは当たり前。AIは学習を繰り返していくものであるのだから、AIが出してきたデータに疑いの目を向けるのはIBM社員だったらできなければいけない。
つまり、AIの活用が問題なのではなく、そのAIのデータを疑いもなく活用しすぎ、部下を評価に対して納得できない状態にしてしまった、上司の能力の問題ではないだろうか。
普段から言っているのだが、マネージャーは楽をしてはいけない。定量化できる評価基準で頭を使わず評価をしてはいけない。定時に出社したかとか、ソフトウェアエンジニアだったら、開発したプログラムのソースコードの行数だとか。
ブラックボックスであっても、その出力をそのまま使った(と思われる)結果生まれた上司への不信が問題なのではないだろうか。ブラックボックスを少し開けてみましょう。
IBMは、2012年に人材管理サービスのKenexaを約13億ドルで買収している。買収後のリブランディングで、IBM Watson Talentとなった。
AIが人事評価というセンセーショナルな話題だが、実際はいわゆるHR Techの波に乗ろうというものであり、地道にデータ分析するもの。
とはいえ、バイアスを学習してしまうことは免れないので、それを使いこなす人間のマネージャー次第かなと。
=参考=
マネジメントを正解に導く?IBM『Kenexa』が示すコグニティブHR Techの正体
https://ledge.ai/kenexa_int/