AIが人間の意思決定を操作する「本当の怖さ」
コメント
注目のコメント
こうしたAIに関わるリスクについては、大きく「データ」「アルゴリズム」「用途」「ルール(規制)」に分けて考えられるものと個人的に思います。
まず「データ」についてですが、ChatGPTをはじめとするLLM(大規模言語モデル)は、基本的にインターネット上で公開・投稿・発表・報道された情報を学習データとしています。裏返せば、私たち人間が生み出してきたフェイク情報も含まれているということです。明らかな特徴・傾向があるフェイクはフィルタリングできる可能性はありますが、人でも見分けが付かないような誤情報は、やはりAIという機械でも除外するのは難しいと思われます。
次に「アルゴリズム」についてですが、GPT-3でもパラメータ数は1,750億、GPT-4では100兆を超えるとも言われています。原理的にはそれらを示すことはできるものの、公開されたところでもはや人間では理解できない領域に達してしまっています。
そして重要なのが「用途」、人間が何に使うかです。上記のような、もはやアンコントローラブルな要素を含まざるを得ないAIという技術特性を踏まえて、フェイク情報が出力された場合にどう対処するかの運用を定める、あるいはフェイク情報が出ても問題のない領域を探すということで、伴って「ルール」の策定と紐づいてくる部分です。
こうしたそれぞれのリスクを踏まえて思うのは、コントロールができない「本当の怖さ」があるからといって「データ」「アルゴリズム」に規制をかける、つまり生成AIの利用を100%禁止させたり、開発をストップさせることは、人を現状維持に留まらせ、成長・進化に全くつながらないと感じます。
考えるべきは「用途」「ルール」の部分で、AI活用を前提に、どのような領域での活用を促進させ、それにあたってどのような規制・法整備を進めるのかを考える(これは社会を構成する人間にしかできない)ことではないでしょうか。プロファイリングこそ、AI、ビックデータの一番の恐ろしさだと思います。
知らぬ間にアンコンシャスバイアスにより、自動分けされ、ある一定のグループに分けられる。
データが大きくなればなるほどこの危険性は増すと、古いものですが、本で学んだ覚えがあります。Chat GPTも然りかと思います。
一つ考えたのは
データが集まれば集まるほど精度は高まるかもしれないが、
マイノリティは切り捨てられていってしまう。そしてマイノリティによってグループや国はコントロールされるようになる、
というのが最悪の結末かなと。
要注意ですね。
参考
キャシー・オニール(2018).『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』.インターシフトビジネスの怖いところは、利益が上がればわりとなんでもOKなところだと思います。AI利用に限った話ではなく、人が理解して作っているアルゴリズムでも「外見をコンプレックスに感じていそうな人に整形の広告を出す」のも「アルコール依存症の人にアルコールを推す」のも一番儲かるからいいじゃん、となりかねません。
パーソナライズアルゴリズムのせいで政治思想が偏っていく(フィルターバブル、エコーチェンバーが増強されている)ことも問題視されつつあり、ますますテクノロジーの便利な活用方法を試しながらも「倫理的にどうなの?」というところを並行してしっかり議論していく必要があると思います。