• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

AIのゴールは「不適切か否か」の判断ではない--FacebookのAI研究所・開発トップに聞く

232
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • CNET Japan 編集長

    来日したFacebook AI研究所の開発トップであるルブリュンさんにお話を聞きました。とてもフランクな方でどんな質問にも答えてくれたのですが、AIのゴールは「99%以上ある適切な投稿を判断すること」という、不適切投稿に対する考え方は目から鱗でした。

    【追記:11月16日9時】
    「AI同士が暴走して独自言語で会話をはじめた」と話題になった、あの実験の真相を聞いた記事も掲載しました。
    https://japan.cnet.com/article/35110443/


  • ふくえもん(.me) fukuemon.me

    そうそう
    AIが判断するのが人間より正しいと言う人がたまにいるけど、それは過大評価だから
    AIはあくまで大量のデータを処理してくれるのに向いてるだけで、精度自体は人間のほうが高い

    以下引用
    ---
    教師データの蓄積で発見の精度は高まりますが、残念ながら“これで充分だ”という状態には絶対になりません。そこには2つの大きな理由があります。

     1つ目は、いま仮に世界最高の人工知能を用いたとしても“100%正しい”という判断は絶対にできないということです。99%正しかったとしても、カバーしきれないわずかな不確実性が必ず存在します。100万のサンプルを学習しても、それは解消できないでしょう。ゲームやレコメンドであれば、それでいいかもしれません。しかし、自殺助長や犯罪などの発見には、わずかな不確実性も残されるべきではありません。


  • badge
    Scrum Ventures Founding Partner

    Facebookのチャットボット開発責任者Alexのインタビュー。昨日の飛行機でアイアンマン見ながら来たので、Jarvisの未来について明日のセッションで聞いてみよう。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか