説明可能なAIとは? Googleの「Explainable AI」に触れながら解説
Ledge.ai
13Picks
コメント
注目のコメント
遠隔画像診断でのAIの1番の問題がブラックボックス化というのを現実の活動で聞いてきたが、この話であれば事後的にある程度説明可能になるとの事。とはいえ最後まで読むと、ブラックボックスな部分は残るのでこのレベルの説明で厚労省や医師会川認めることが出来るのかどうかが焦点だなぁ。この点でも中国なら先行して規制を変えて実践投入しそうだけど。。
「これが特徴量っぽくて、ここら辺を重要視してるみたいです」っていう内容で、納得してもらえる(アクションの根拠になる)分野であれば、説明もできるような仕組みが出来てきている。
一方で、あくまで帰納的に作られた数式だから、科学根拠とかにはそのまま適用できないんだろうな。と。
とはいえ、一定レベルの確からしい答えや、上記のような重要視したポイントは抽出できるので、そこから人が解釈をし、科学的アプローチで研究して、新しい発見が生まれてほしい。
ただ残念ながら、科学的根拠が必要かつミスが許されない状況では、やっぱ無理なのかなと思っている。そういった状況では「人よりも、ミス率が低い」みたいな実利視点で考えて、精度的に難しければ撤退!!