新着Pick

AIにおける意思決定プロセスの「見える化」で、AIの信頼性を高める

Mugendai(無限大)|新たな視点と最新の動向を提供するWebメディア
205Picks
シェアする
pick
Pick に失敗しました

人気 Picker
問題は、トラブルが起きたときの原因追求と対策です。

あるプロセスやルールのもとで人間が決めていれば、誰でも、なぜ問題が起きてどうすれば対策が打てるか、考えて理解することができます。

一方、AIの判断によってトラブルが起きたとき、データサイエンティストはその原因追求ができて対策が打てたとしても、そのデータサイエンティストの上司や顧客が理解できない恐れがあります。

データサイエンスが分かる人が上に立つのがまずは解決になるんじゃないでしょうか。
「60%の回答者が、AIが起こしうるトラブルの「責任問題」を懸念している」

マスコミが煽っているからじゃないですかね。。。。
ソースは示せませんが、とあるイベントで聞いたところだと
・きちんと説明できるが精度はそこまで高くない人間
・説明はできないが精度が高いAI
だと、人がどちらを選択するかはいまはちょうど半々くらいだそうです。
「意思決定プロセス」の見える化は言い過ぎ。ブラックボックステストでの「意思決定結果」の見える化。
そこに価値を感じるならアリだけど、過剰な期待に要注意。

=再掲=
・バイアスの検出:主に学習データの統計的な偏りを見つける(だけ)
・意思決定の説明:テスト・イベントを大量に生成して、AIの判断結果の傾向を見る(だけで、ニューラルネットの中を覗くわけではなく、判断理由は不明のまま)
・フレームワーク非依存:データの入出力だけをチェックするので、ブラックボックス内の実装方式は関係ない
https://newspicks.com/news/3335773/
素人理解ですが、生身の人間の意思決定プロセスをまねて高度化したものがAI、まさに「人工」知能なのでしょうから、生身のプロセスがわからなければ、可視化しても信頼感が失われるだけではないでしょうか