ビジネスに「説明可能なAI」が必要なワケ “AIマスター”が解説
PR: デル・テクノロジーズ | ITmedia NEWS
72Picks
コメント
注目のコメント
>技術面でも、学習モデルの欠陥によってAI制御の自動運転車が歩行者を死亡させるなど、重大な事故が度々起こっている。こうしたリスクを避けるためには、AIの判断や分析の過程、判断の理由を明示できる「説明可能なAI」が重要だとバンサル氏は説明する。
説明可能なAIはそういうリスクのためだけでは無いです。
AIを企業内でなんらかの統制行為に使う場合や、監査などのチェックに使う場合、AIがどんなロジックのもとに承認等の統制行為をしたのか、どんなロジックで監査上の判断として有効or不備を判定したのか、それが分からないとAIの出した結果に依拠できません。
依拠できないとなればAIが出した結論は参考情報程度にしかならず、如何なるジャッジメントは今後も人間が行うことが続くことになり、それだと業務の自動化は出来ない。あらゆる場面でAIが浸透し、日常生活やビジネスでの活用が進められていますが、技術面や倫理面、サイバーセキュリティなど、課題は多くあると思います。
私は特に「信頼性」が心配です。例えば医療の現場で、AIの判定結果を参考にしつつ、最終的な判断を人間が下すことになったとしても、信頼性の低いAIに命を預けるのは心配だな、と感じます。
AIの動作をさらに今後人間が理解できる言葉や形式で説明できれば、もっと信頼性が構築され、よりAIの活用の幅が広がるのではないかと思いました。説明可能なAIが大事なのは言うまでもありません。難しいのは説明とは何かということ。記事にあるような、変数の寄与度や感度を示すことは、説明と言えるのか?受け手の感じ方に大きく左右されます。悩むところです。