新着Pick
303Picks
シェアする
Pick
Pick に失敗しました

人気 Picker
日本語記事出ましたねぇ 

AIの中身説明用のAIがいりますねぇ AIバブル第一世代の、ロジック推論系AIの成果が役立つかもですねぇ あの頃のAI、今の計算機パワー、自動コード生成技術、ネットワーク技術があれば結構サクサク動く気がするので面白いかも この分野でかつて夢を見たオジサンたち喜ぶ (ワタシはそこまでトシではありません)?

まずは、兵器、医療、投資などの分野で必要でしょうねぇ そのうち起きるあろう、AI裁判でも(裁かれるAIと裁くAIの両方に)
そもそも人間が行動判断の理由を後追いで言語化して、時に後追いで意思決定するシステムである事を考慮すると、結局AIとしても判断の論拠を推測する事が合理的であり、そもそも判断時に論拠が明文化できると考える方がどうかしてると思う。
まさに現状だとディープラーニングは理由の説明がヒト、社会に対して説明しにくいという問題を抱えている。

説明責任を求められる局面 、経営、投資、医療、事故などでダメージを最小化する"まし"な選択をする際にもディープラーニングを適用しやすくなる。
長嶋茂雄自身がなぜヒットを打てるのか本人ご説明できないので、周りの解説者が根拠を推論するのと同じ。
特定の領域ではヒトより機械学習の判断に任せた方が効率的…そういう結果を簡単には受け入れられないヒトにとって、理由や根拠の説明があると安心して任せられる。
ただ、この問題はディープラーニングが流行する前からある機械学習の問題で、ビジネスの場でも「なぜか当たる」機械学習の結果を採用するリスクの取れる企業と、論理的な説明がないと採用しないリスクの取れない企業がいる。
この研究により、後者のような社会的にリスクを取ることが難しい警察・裁判所などに機械学習を広めることになる。
機械からすれば、人間は"物分かりの悪い上司"的なポジションになるのだろう。
AI が「結論に至った理由や根拠を説明出来る」ようになったとしてその説明を理解出来る人間がどれだけいるのかが次の問題

例えば AlphaGo が自分の手を説明したとしても理解出来る人間がいるのか

人間を賢くする研究も必要
そこは確かに課題でしたけど、
説明させた内容がサッパリ人間に理解できない可能性大です
国防のDARPAが進めてるから欲しいのは軍の作戦立案とかにその理由が欲しいのでしょうね
これ結構面白いな