AIのゴールは「不適切か否か」の判断ではない--FacebookのAI研究所・開発トップに聞く
コメント
注目のコメント
来日したFacebook AI研究所の開発トップであるルブリュンさんにお話を聞きました。とてもフランクな方でどんな質問にも答えてくれたのですが、AIのゴールは「99%以上ある適切な投稿を判断すること」という、不適切投稿に対する考え方は目から鱗でした。
【追記:11月16日9時】
「AI同士が暴走して独自言語で会話をはじめた」と話題になった、あの実験の真相を聞いた記事も掲載しました。
https://japan.cnet.com/article/35110443/そうそう
AIが判断するのが人間より正しいと言う人がたまにいるけど、それは過大評価だから
AIはあくまで大量のデータを処理してくれるのに向いてるだけで、精度自体は人間のほうが高い
以下引用
---
教師データの蓄積で発見の精度は高まりますが、残念ながら“これで充分だ”という状態には絶対になりません。そこには2つの大きな理由があります。
1つ目は、いま仮に世界最高の人工知能を用いたとしても“100%正しい”という判断は絶対にできないということです。99%正しかったとしても、カバーしきれないわずかな不確実性が必ず存在します。100万のサンプルを学習しても、それは解消できないでしょう。ゲームやレコメンドであれば、それでいいかもしれません。しかし、自殺助長や犯罪などの発見には、わずかな不確実性も残されるべきではありません。Facebookのチャットボット開発責任者Alexのインタビュー。昨日の飛行機でアイアンマン見ながら来たので、Jarvisの未来について明日のセッションで聞いてみよう。