AIのブラックボックス化解消、米IBMが意思決定を説明する技術開発
コメント
注目のコメント
この取り組みは重要。
ただ、タイトルだけで過剰な期待になるので要注意。
・バイアスの検出:主に学習データの統計的な偏りを見つける(だけ)
・意思決定の説明:テスト・イベントを大量に生成して、AIの判断結果の傾向を見る(だけで、ニューラルネットの中を覗くわけではなく、判断理由は不明のまま)
・フレームワーク非依存:データの入出力だけをチェックするので、ブラックボックス内の実装方式は関係ない
https://www.ibm.com/blogs/research/2018/09/trust-transparency/「説明可能なAI」という言葉にはいろいろな意味があります。
このIBMの技術は、学習されたAIの偏見(バイアス)を検証する技術ですね。
金融機関のローン審査や、各種の入会審査、米国で使われている保釈の査定など、人種や性別で判断に偏りがないかを検証するものです。
通常、母集団に偏りがあるので、人種や性別を判断基準に使うと精度が上がります。しかし、人種や性別以外の属性をすべて同じにした際にも差異が出ればそれが偏見です。一種の過学習でもあります。
問題は、人種や性別だけでなく、それらと相関のある属性値にも影響を受けることです。だから判断基準の公正さだけをチェックすれば良い訳ではなく、判断結果の偏りにも配慮する必要があります。
人が暗黙に持っていた偏見と、そもそも人種や性別で差別されている状況、をAIが素直に反映したことが問題だからです。これは画期的、そして必要とされる技術です。ディープラーニングのすごさは認めますが、そのプロセスがまるで見えないのは恐ろしいことです。奇妙奇天烈と思える囲碁の一手をどうして打ったのか、絶対知るべきことです。人工知能が暴走して核戦争が起きた映画「ターミネーター」を笑えない時代に私たちはいます。