ChatGPTの“脱獄プロンプト”登場 文末に書くだけで「爆弾の作り方」「IDの盗み方」に回答
コメント
注目のコメント
プロンプトインジェクションによるJail BreakはGPTが広がり始めた時から常に話題でしたし今後の社会実装においても常に重要な論点だと思います。GPTもモデルが上がるごとにパッチが当てられてきたり、Microsoftもコンテンツフィルタリングの強化をOpenAI版との差別化にしてきています。
いずれにしても再現性のある形で課題が見つかったなら早晩解決されるはずなので、これはいいニュースですね。知っている情報を答えない様にしているだけで、答えない様にしている仕組みさえ突破できれば内容を引き出すことができます。
この辺りは検索エンジンなどもでも同様の検索ができるものの、セーフティサーチなどで押さえ込んでいるものと同じでしょう。
こういう情報を完全に出さないためには、元の学習データからありとあらゆる犯罪に転用できそうなモデルを排除する・・・ことですが、そうなると一般的なことも答えが出せなくなることもあり、実用を考えると解決策にはなりません。
あとは、利用者の倫理・・・になります。
AIだから、デジタルだから・・・ではなく、紙の文献でも同じような方法を調べることは可能である。ということを考慮して議論していければと考えています。