• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

ソニー、AIの倫理を審査 差別や乱用回避

日本経済新聞
119
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

選択しているユーザー

  • コモンズ投信株式会社 代表取締役社長兼CIO

    人権問題などが、クローズアップされる中、これは大事。


注目のコメント

  • badge
    株式会社レクター代表/日本CTO協会理事 朝日新聞社社外CTO

    人工知能というと仰々しいが、機械学習のモデルとは少し複雑な関数でそのパラメータがメチャクチャに膨大なもので、そのパラメータを決めるためにメチャクチャな量のデータが用意されて、そのデータに適合するものを見つけた(学習した)ものです。

    そのため、学習のさせ方、データの品質、例外的なケース、継続的な品質の維持の仕方などで人間固有のバイアスや差別的な振る舞いも学習してしまいます。

    また、ディープフェイクなどでも明らかなように、学習した関数を利用した生成器を作ることができるのもニューラルネットワークの使い方として一般的です。そのため、フェイクニュースや機会生成のスパム記事、盗作などこれまでは不可能であったがこれからは簡単にできてしまう嫌がらせや非倫理的な行為があります。

    この点を議論し、企業を統制するにはコンピュータサイエンスとリベラルアーツの両方を理解した人材が必要になってきます。倫理や正義に対して、フェアに歴史的な議論ができるというだけでも稀有なのにさらに深い技術的理解も必要なので、人材獲得はますます難しくなりそうですね。


  • badge
    (株)ハピネスプラネット 代表取締役CEO (株)日立製作所 フェロー

    そもそも、ここでは、遙かに大きな問題が見過ごされている。
     コンビニという生活のインフラを日本に拡げたセブン&アイの鈴木敏文氏が、データ活用に関して重要な発言をしている。
     
     「ビッグデータという言葉がよく使われますよね。私は好きじゃないん
      ですよ。(中略) あれは過去に経験したことをまねするということです」(日経ビジネス、2020年2月3日号「データより変化を見よ」)

    この鈴木氏の発言ほど、現在のデータの使い方の問題を的確に指摘した発言はない。
     実は、現在のデータの活用もAIの活用も、まさに「過去の経験をまねする」ことだけを行っているのである。いや、それしかできないのである。
     なぜか。それはデータは常に過去のものであり、未来のデータは存在しないからである。データでできることは、過去のデータでうまくいったことを繰り返すことである。これにより、過去のうまくいったことを繰り返し、うまくいかなかったことをやらないようにすることができる。
     それの何が問題なのか。これには原理的な問題がある。まず、新しいことをやらなくなることである。過去のうまくいったデータや経験を参考に行動することになるので、新しいことはやらなくなる。
     このために、変化に弱くなる。ビジネスも社会も国も常に変化の只中にある。しかも未来は予測できない。だからやってみないとわからないことだらけである。いかに未来に向けて行動を起こすかが最も重要なことなのに、データやAIに頼ると、過去のデータで経験したことの範囲で行動や判断するようになる。これはいわばバックミラーを見ながら運転しているようなものである。危険窮まりないことである。
     発想を変えたデータやAIの活用が必要だと、それは可能である。


  • badge
    東京大学経済学部教授 東京大学マーケットデザインセンター(UTMD)所長

    倫理的なAIはコンピュータサイエンスでも興味を持たれている分野のようで、トップ研究者による入門書

    https://www.amazon.com/Ethical-Algorithm-Science-Socially-Design/dp/0190948205

    がオススメ(少なくとも僕はとても面白かったです)


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか