オープンAI、欧州で事業停止も 新AI規制巡り─CEO=報道
コメント
選択しているユーザー
日常的にChatGPTを利用しており、その有用性やLLM(大規模言語モデル)がもたらす社会的価値、経済的価値に大きな期待を寄せていますが、まだ人類が想定できていないリスクがあり得ることや、受容できるリスクと受容できないリスクの線引きがまだ曖昧であることを考えると、一定の規制圧力がかかることは十分理解できます。一方、様々なリスクを考えて規制をかけすぎるとテクノロジーの恩恵を受ける機会が大幅に逸失してしまいます。規制によってイノベーションが進まないのは望ましくないと考えます。
総務省の資料を見て知ったことは「域外適用」という考え方です。規制は欧州に限定した話ではなく、日本を含む世界に影響が出てくるということ。「ChatGPTの利用にはこのようなリスクが潜んでいるからこのレベルの規制をする」と一概に議論することは難しいと感じています。サム・アルトマンCEOと規制当局者がどのくらい深掘りした議論を進めているのか分かりませんが、どのような場面でどのように利用されるのか、その結果としてどのような影響やリスクの発生が想定されるのか、を丁寧に紐解いて議論に乗せていく必要があると感じています。
リスク回避視点に偏った規制ではなく、AIやLLMによって生じる社会的インパクトを過度に楽観視しすぎる訳でもなく、テクノロジーがもたらすイノベーションを、人類にとって望ましい形で発展させていけるような市場創造型・市場牽引型の規制議論が望まれると考えています。
参考:
EUのAI規制法案の概要(総務省)
https://www.soumu.go.jp/main_content/000826707.pdf
AI関連政策の海外動向(経済産業省)
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/2022_008_s02_00.pdf
注目のコメント
生成AIは、4段階のリスクレベルの内、2番目のハイリスクに指定される模様。
1.受容できないリスク→禁止
2.ハイリスク→規制
3.限定リスク→透明性の義務
4.極小リスク→規制なし
規制の内容はいくつかあり、Open AIの事業停止につながりそうなのはDやEあたり。
A.リスク管理プロセス
B.高品質な学習、検証、テストデータ
C.文書化、ログ機能
D.適切な透明性、ユーザーへの情報提供
E.人間による監視
F.堅牢性、正確性、サイバーセキュリティ
(参考) EUのAIに関するフレームワーク by 経産省
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/2021_001_05_00.pdf欧州AI規制の4段階リスクは、1.許容できないリスク、2.ハイリスク、3.限定リスク、4.最小リスク。OpenAIは第三者機関の監査を受けるハイリスク認定を避け、透明性表示義務のみを負う限定リスクと認定されたいと思われます。
しかし、汎用的なAIであるChatGPTは用途を絞れないので、ハイリスクと認定されやすいでしょう。加えて、生成AIに対する新たな規制修正案が提示されています。だから規制当局とどのような議論があったか注目されています。
それが「新たなAI規制を順守できなければ、オープンAIはEUでの「事業を停止する」可能性がある」の発言意図でしょう。少し脅しに近いニュアンスも感じます。
もし、ChatGPTがハイリスク認定されたら、他の汎用的なチャット型LLMもすべてハイリスクです。欧州のLLM活用が停滞しかねません。
例えば、人材採用評価に使うとハイリスクです。「この業務経歴を評価して」という質問だけを弾けば良いというものではありません。あらゆるシチュエーションを考えねばいけません。それは技術的には実質不可能です。不適切表現のフィルタリングとは本質的に異なりますから。
逆に言えば、欧州AI規制はまだ汎用的AIに対する答えを持っていないとも言えます。その意味では、欧州の折り合いの付け方は日本でも参考になるでしょう。
【追記】
Sugibuchi Tsuyoshiさんのコメントにある記事に、欧州AI規制の修正点と各方面のコメントがまとめられていました。その中で、最も気になったのが、
「EUは利益よりも人々を、支配よりも自由を、ディストピアよりも尊厳を優先する用意があることを示しています。」
欧州の人権に対する確固たる考え、不利益を被っても人権や尊厳を守る、が垣間見られます。信念の問題なので簡単には決着はつきそうもありません。OpenAIがEUで使えなくなるようなことが起これば、EUにおけるAI開発や事業展開の遅れを招く可能性もあり、経済的発展の遅れにもつながります。この発言は、OpenAIが対応しないこともあり得るという姿勢を見せることで、過度な規制を牽制する狙いがあると思われます。