• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

韓国で「対話AI」暴走 機械学習が陥ったワナ

日本経済新聞
97
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

選択しているユーザー

  • エネルギーアナリスト/ポスト石油戦略研究所代表

    なぜこれが記事になるのか。もしかして機械学習が陥ったワナだったりして。


注目のコメント

  • badge
    プレジデントオンライン 編集長

    AIの特徴と限界を示す象徴的な事例ですね。いまのAIは原理的に倫理観をもちえません。なにが不適切で、なにが差別なのかは、文脈によって異なります。

    さらに文脈はその社会の在り方にも左右されます。30年前ならまったく問題なかった発言が、いまでは大問題になるわけです。こうしたさまざまな文脈を踏まえて、完全に不適切発言を防ぐのは、人間でも困難です。

    ましてや、人間とは比べものにならないぐらい高速に学習ができるAIであれば、小さな歪みでもどんどん大きくなります。人間であれば、なあなあで済ませられるのに、AIではそういうわけにはいきません。

    最後は「倫理とはなにか」に行き着きます。これは人類がずっと議論していることで、いくら高速学習をしても答えが出るものではありません。現実的な解決策は「答えを控える(なあなあで済ませる)」ということでしょう。対話AIなら、実装はそう難しくないはずです。しかし、対話以外のケース、よりシリアスな問題(たとえばトロッコ問題)であれば、判断を控えているわけにはいきません。何でも自由に学習させるのではなく、事前に教師が教え込む必要があります。だからAIの自立学習は難しいのです。

    AIが人間の代わりになるというのは絵空事です。他方で、AIにはさまざまな使い途があります。今回の事例は、その試行錯誤の代表例と受け止めました。


  • いろいろ ひら

    これってAIの話だけど、子どもにも同じことが言えるんじゃないかな。

    教育や家族などの周囲の声掛けによって差別・偏見の思想が醸成される。


  • badge
    アンパサンド税理士法人 代表社員/税理士・経営心理士・組織図診断士・性格診断アドバイザー

    非常に興味深い出来事。AIの難しさなんでしょうね。
    人も同じで関わる人やコミュニケーションで考え方が変わる。だけど、倫理観や価値観というフィルタを通すことで変な考えにならないように自らを守っている。これが時として先入観として悪く働くこともある。先入観も自らを守るためにあるフィルタなんでしょうね。人の頭はやはりすごいなとも思います。AIを作るときはいきなりゼロからではなく、まずは教養を学ぶ必要があるということですね。全く人と同じですね。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか