「倫理的なAI」の重要性高まる--開発者にも求められる変化
コメント
選択しているユーザー
▪️要約
『最近では、社会的影響が大きい意思決定の判断材料にAIが使われるようになっている。
AIシステムのトレーニングに使われるデータセットには、しばしば人種や性別、イデオロギーのバイアスが含まれており、不公平な、あるいは差別的な意思決定につながる可能性があることが知られるようになってきた。
世界中の政府が、AIを使ったシステムが引き起こす望ましくない事態の影響を抑えるために、開発者に対して人権を尊重するアルゴリズムを作るように伝え、それを手助けするための法案やガイドライン、フレームワークに取り組んでいる。
プログラムがユーザーに害を及ぼさないようにする責任は、開発チームが負うことになったということだ。
「新しいAIに関わっている人たちについて考えてみてほしい。彼らは技術屋であり、プログラマーだ。その多くは、哲学についての知識を持っていない」と述べている。
IT業界は新たな時代に入っていくように見え始めている。計算機工学の学位を取るために、哲学の教科書が必要になる時代に』
▪️意見
ここで言われているAIはディープラーニングの事だが、ディープラーニングはそもそも数式でいう関数でしかない。入力に対して出力が決まる仕組み。この入力と出力のペアを大量に学習させる。よって、AIが出す答えというのは、入力データに対する統計的に最も正しい確率の高い答えである。入力データは過去の実績であるので、そこに偏見や人種差別があれば、それが答えとして出でくる。すなわち、あくまで最も正しい過去の実績でしかない。
人権尊重、機会の平等などの理念は、過去の実績ではなく、むしろ過去にうまくいかなかった事に対して、将来はこうあるべきという人間の「意志」である。意志は過去の実績データには含まれていない。だから、AIはこの意志を加味しないで結果を出す。AIが得意なのは過去の事例に基づいて、最も成功する確率の高い意思決定の為の仮説を出力する事である。そこに意志はない。意志は人間がその出力に加える必要がある。これを理解した上でAIをうまく使えば、AIは最高の意思決定サポートツールになると思う。
注目のコメント
「計算機工学の学位を取るために、哲学の教科書が必要になる時代に」
日本では最近ジェンダー周りでよく炎上しているの(AIさくらさんなど)で、設計による倫理(Ethics by Design)を開発の前段階から事前知識として身につけるのが当たり前になってほしいと切に思う。
>プログラムがユーザーに害を及ぼさないようにする責任は、開発チームが負うことになったということだ。そして、それを確実にするには、開発の最初の段階からAIの倫理に取り組む以外にない。倫理的なAI。
この記事を見て初めて聞きました。
開発者は倫理とか人権まで注意した設計、開発が必要が今後出てくる。
倫理的な部分は直接エンドユーザーまで及び、開発者が責任を負うことも場合によってはあるのだろう。
まとまらないが、
現場レベル的な話を出すと、コーディングもゴリゴリで仕事の出来るエンジニアでも、
倫理とか人権、哲学、心理学といった分野については本当に関心興味が薄い人が多い印象なので、
今後、技術者にもこういった知識や考え方が必要とされてくるのだろう。