• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

「自ら下した判断の根拠を説明できるAI」が求められている理由

395
Picks
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • 株式会社山愛 代表取締役

    風が吹けば桶屋が儲かる、これを理路整然と説明することに近い。

    人間にわかるようにするには因果律を持ち出さないといけないが複雑に絡み合った事象はそれではうまくいかない。時には時系列を遡った因果関係すら想定される。

    因果律はかなり端折ったモノゴトの捉え方で誤った判断を導きやすい。
    AIに説明を求めることを優先するとどんどん正確性を犠牲にすることになる。


注目のコメント

  • 株式会社LIFULL AI戦略室 主席研究員

    現在のAI、とくに統計的機械学習やディープラーニングは「帰納」型、つまり過去の似た事例に寄せた判断を下しているにすぎません。

    厳密な説明をしようとすれば、参考にした過去事例への判断を開示することになりますが、こんどはプライバシー保護の問題もでてきます。

    結局のところ、帰納型の機械学習システムを信頼するかどうかという社会的コンセンサスをどう形成するかが重要になると思われます。

    参考: 樋口 知之, 視点 人工知能はみようみまねマシンの究極形, 情報管理, 2016, 59 巻, 5 号, p. 331-335
    https://doi.org/10.1241/johokanri.59.331


  • マーケター

    AIの言う「根拠」というのは本当に説明できるものなのか…

    というのが率直な感想です。
    AIって「理論モデル」が先にあるような理論(仮説)駆動型ではなく、ビッグデータを元にしたデータ駆動型でしょう?
    ましてエクセルなど、数字から分析した「構造化データ」だけでなく、画像などの「非構造化データ」の分析までしているので、その過程を「人間が納得できる表現」で説明するのって、相当難しい気がしますが…。


  • エネルギーアナリスト/ポスト石油戦略研究所代表

    人が一人で生きていないことと(つまり法律がある)、妖怪や幽霊が生み出されるように、人間は理由を求めずにはいられないから。

    いや、違うか。バカだからか。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか