ソニー、AIの倫理を審査 差別や乱用回避
コメント
選択しているユーザー
注目のコメント
人工知能というと仰々しいが、機械学習のモデルとは少し複雑な関数でそのパラメータがメチャクチャに膨大なもので、そのパラメータを決めるためにメチャクチャな量のデータが用意されて、そのデータに適合するものを見つけた(学習した)ものです。
そのため、学習のさせ方、データの品質、例外的なケース、継続的な品質の維持の仕方などで人間固有のバイアスや差別的な振る舞いも学習してしまいます。
また、ディープフェイクなどでも明らかなように、学習した関数を利用した生成器を作ることができるのもニューラルネットワークの使い方として一般的です。そのため、フェイクニュースや機会生成のスパム記事、盗作などこれまでは不可能であったがこれからは簡単にできてしまう嫌がらせや非倫理的な行為があります。
この点を議論し、企業を統制するにはコンピュータサイエンスとリベラルアーツの両方を理解した人材が必要になってきます。倫理や正義に対して、フェアに歴史的な議論ができるというだけでも稀有なのにさらに深い技術的理解も必要なので、人材獲得はますます難しくなりそうですね。そもそも、ここでは、遙かに大きな問題が見過ごされている。
コンビニという生活のインフラを日本に拡げたセブン&アイの鈴木敏文氏が、データ活用に関して重要な発言をしている。
「ビッグデータという言葉がよく使われますよね。私は好きじゃないん
ですよ。(中略) あれは過去に経験したことをまねするということです」(日経ビジネス、2020年2月3日号「データより変化を見よ」)
この鈴木氏の発言ほど、現在のデータの使い方の問題を的確に指摘した発言はない。
実は、現在のデータの活用もAIの活用も、まさに「過去の経験をまねする」ことだけを行っているのである。いや、それしかできないのである。
なぜか。それはデータは常に過去のものであり、未来のデータは存在しないからである。データでできることは、過去のデータでうまくいったことを繰り返すことである。これにより、過去のうまくいったことを繰り返し、うまくいかなかったことをやらないようにすることができる。
それの何が問題なのか。これには原理的な問題がある。まず、新しいことをやらなくなることである。過去のうまくいったデータや経験を参考に行動することになるので、新しいことはやらなくなる。
このために、変化に弱くなる。ビジネスも社会も国も常に変化の只中にある。しかも未来は予測できない。だからやってみないとわからないことだらけである。いかに未来に向けて行動を起こすかが最も重要なことなのに、データやAIに頼ると、過去のデータで経験したことの範囲で行動や判断するようになる。これはいわばバックミラーを見ながら運転しているようなものである。危険窮まりないことである。
発想を変えたデータやAIの活用が必要だと、それは可能である。倫理的なAIはコンピュータサイエンスでも興味を持たれている分野のようで、トップ研究者による入門書
https://www.amazon.com/Ethical-Algorithm-Science-Socially-Design/dp/0190948205
がオススメ(少なくとも僕はとても面白かったです)