• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

3. AIの学習過程は“ブラックボックス”の中。そこから出た答えの正しさを、誰が担保するのか?

43
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

注目のコメント

  • Brigham and Women's Hospital 予防医療の研究者

    AIによる予測性能は十分でなく、過程がブラックボックスなので結果の解釈が難しい、という2点に集約されていました。

    予測性能に関しては、今後確実に発展していきます。一方、結果の解釈については、因果推論という既存の学問がある事を知る必要があります。

    統計をかじれば分かるのですが、machine learning は「やや複雑な予測式を組み合わせている」のであって、全くのブラックボックスである訳ではありません。その複雑な式をどう解釈できるか、分かっていないだけです。

    因果推論とは、データ分析から因果関係を推論しようとする学問で、いわゆる「結果の解釈」に関する方法論です。ハーバードとスタンフォードで2つ流派があります。machine learning という方法をどう活用出来るか、現在活発に研究されています。

    AIで予測することと、原因を追求する事は、全然違います。


  • Project Manager

    "バックエンドのデータ、バックエンドの知識が、本当にその確かさをサポートしているのかどうか分からずに使い始めて、どんどん依存していき、終いには、それを評価する能力を失った時というのが一番怖い"


  • badge
    ジョーシス株式会社 シニアエコノミスト

    濱谷さんのコメントが記事に対する補助線となり、見るべきポイントが分かった気がします。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか