チャットGPTは左派的、大規模言語モデルに政治的バイアス
コメント
注目のコメント
“ Generate”なAIとしては、双方向に対立する意見の解答については非常に向いてないものだと考えます。
答えが一つでない、以前に全く逆方向の答えが存在するこれらの状況ではうまく活用することも難しいでしょう。
補完的機能として、問う人がどの立場にいるかを学習しておくことも必要かもしれません。(ChatGPTの場合、ある程度こういう解答をくださいねと要望出しておくこともできるので、それを使えばまあどちらかに寄ると思いますが)
Generative ゆえに、少数派の意見というものが世の中から少なくなることもあるのかもしれません。そもそも学習したデータを元に確率論的に言葉を生成するのが大規模言語モデルというものなので、学習したデータや、そもそも世の中一般の意見の偏りが反映されてしまうのは当たり前といえば当たり前。
これを放置すれば「AI版フィルターバブル」の影響が無視できないほど大きくなってしまうのでどうするか。
個人的には1つの大規模言語モデルでバランスを取るのは不可能に近いので、特徴やバイアスの異なる複数の大規模言語モデルからユーザーが自分に合ったモデルを選び取れるような状況が望ましいと思う。
昨今のLLMのオープンソーストレンドはそうした状況を実現の土台を用意してくれるだろう。
しかし、複数の検索エンジンがある中でGoogleが圧倒的なシェアを維持しているように、優秀なLLMが複数生まれてもネットワーク効果やマーケティングなどの複合的な結果によって単一のLLMのみが使われる状況になるのが規定路線だろう。
この状態を避ける秘策を思いついている訳ではないが、今後複数のLLMを強調させてユーザーが与えたゴールを自律的に達成するAgent AIが発達するはずなので、Agent AIのアーキテクチャ次第では複数のLLMがバランスよく使われる世界が実現するかもしれない。「政治的バイアスから完全に自由な言語モデルなどあり得ない」
そもそも完全中立な意見などあるのか、という疑問ですね。
多様な意見を生成する方が健全かもしれません。