AIにおける意思決定プロセスの「見える化」で、AIの信頼性を高める
コメント
注目のコメント
「意思決定プロセス」の見える化は言い過ぎ。ブラックボックステストでの「意思決定結果」の見える化。
そこに価値を感じるならアリだけど、過剰な期待に要注意。
=再掲=
・バイアスの検出:主に学習データの統計的な偏りを見つける(だけ)
・意思決定の説明:テスト・イベントを大量に生成して、AIの判断結果の傾向を見る(だけで、ニューラルネットの中を覗くわけではなく、判断理由は不明のまま)
・フレームワーク非依存:データの入出力だけをチェックするので、ブラックボックス内の実装方式は関係ない
https://newspicks.com/news/3335773/「60%の回答者が、AIが起こしうるトラブルの「責任問題」を懸念している」
マスコミが煽っているからじゃないですかね。。。。
ソースは示せませんが、とあるイベントで聞いたところだと
・きちんと説明できるが精度はそこまで高くない人間
・説明はできないが精度が高いAI
だと、人がどちらを選択するかはいまはちょうど半々くらいだそうです。AIは「データドリブン」なので、プロセスが見える化したとしても、そのプロセスが人間にとって分かりやすいものだとは限りません。
例えば、面接時の求職者の様子をモニターし、そこから採用するか否かを判定するAIがあったとして、
「Aさんは採用すべきです。何故なら、現在当社で成果を出している優秀な営業マンの採用面接時のデータを観察すると、79%の人が入室時のノックの間隔が0.4秒以内、85%の人が平均して10秒間に3回以内しか瞬きをせず、72%の人が自分の左側を見る回数より右側を見る回数が多く、91%の人が10分間に3回以上笑顔を見せており、Aさんはその全ての条件を満たしているからです。
なお、今回の求職者の中でその全てをクリアしている人は10人のうちAさん1人しかおらず、確率10%というのは当社の採用倍率4倍を遥かに超えています。」
と言われたら、その判断は信頼性高いのか低いのか。
まぁ、見えないよりはいいってことかな?
でも実際はこの例えよりももっと複雑で膨大な量の説明になる気もするけど…。