【じっくり読む】「AIによる滅亡」を避けるために、今すべきこと
コメント
注目のコメント
AIが核融合など最先端のテクノロジー、クリーン関連技術に役立つという側面は、AIの潜在力を示す一例ですね。
タンパク質の構造分析といった医療分野での貢献のみならず、核融合というエネルギー問題を大きく解決しうるテクノロジーの開発を加速しうるという点は、AIの存在意義をさらに強めますね。
同時に、このようにAIの開発をリードしてきたクライン氏が、「Statement on AI Risk」に署名した一人であることは、重いと思いました。
同氏が述べる「AI技術はとてつもない恩恵をもたらす可能性を秘めているが、諸刃の剣でもあるということです。もし悪意を持つ者の手に渡れば、悪いことに使われ得る」という言葉は、どんな技術も、人間の使い方次第だということですよね。
「Statement on AI Risk」は、ほんの22語の短い声明です。
「Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.」(仮訳:AIによる絶滅のリスクを軽減することは、パンデミックや核戦争といった他の社会規模のリスクと並んで、世界的な優先事項であるべきだ。)
https://www.safe.ai/statement-on-ai-risk#open-letter
核兵器は、ある意味、冷戦の「長い平和」と、それ以降の大国間戦争の抑止に貢献してきたかもしれませんが、核戦争による人類絶滅のリスクは今でもありますし、核兵器がテロリストなどに拡散するリスクも存在し得ます。核兵器を「平和」のためにどう使うかは、われわれ人間の判断に懸かっています。
同様に、AIもどうなるか使われうるか分からないし、でも、その効用を最大限活かすために、リスクを徹底的に議論しておくことが重要だということでしょう。
AIを最先端で開発してきた技術者、研究者である同氏が述べた言葉は、重く受け止めたいと思いました。
「しかし、何が起こるかは分かりません。私たちが思慮深く慎重に細心の注意を払いながらこのテクノロジーを扱わない限り、それが不測の事態を引き起こす可能性は決して全くのゼロではありません。」汎用型AIが、他の特化型AIを使ったり、他システムやソフトウェアを使うようになるとみているのですね。私もLLMの直近の産業実用化においては、他システムの操作を学習することがかなり重要だと考えています。
AIによる滅亡の最大のリスクは悪意ある権力者の利用ですね。AIを制御できずに暴走するSF的なリスクはハピサス氏もゼロに近いと見ているようです。Google Deep MindのCEOデビス・ハサビスさんのインタビュー後編です。前編から引き続き、創薬の話。そして、次世代のAIの仕組みとしてハサビスさんが予測されるAIやアプリを使うAI、という発展の方向性。
そして、ハサビスさんら世界のAI開発者など名だたる人々が署名をしたAIのリスクに関する署名など、AIと人の未来について考えさせられるインタビューです。ぜひご覧下さい。