• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

ChatGPTの“脱獄プロンプト”登場 文末に書くだけで「爆弾の作り方」「IDの盗み方」に回答

126
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    BRAINIAC LLC 代表

    プロンプトインジェクションによるJail BreakはGPTが広がり始めた時から常に話題でしたし今後の社会実装においても常に重要な論点だと思います。GPTもモデルが上がるごとにパッチが当てられてきたり、Microsoftもコンテンツフィルタリングの強化をOpenAI版との差別化にしてきています。

    いずれにしても再現性のある形で課題が見つかったなら早晩解決されるはずなので、これはいいニュースですね。


  • badge
    三菱総合研究所 執行役員兼研究理事 生成AIラボセンター長

    この手のハックは本当に嫌いです。これを記事にすることを含めて。


  • badge
    富士通株式会社 シニアエバンジェリスト 最新著書「20分で誰でもわかるサイバーセキュリティ超入門」

    知っている情報を答えない様にしているだけで、答えない様にしている仕組みさえ突破できれば内容を引き出すことができます。
    この辺りは検索エンジンなどもでも同様の検索ができるものの、セーフティサーチなどで押さえ込んでいるものと同じでしょう。

    こういう情報を完全に出さないためには、元の学習データからありとあらゆる犯罪に転用できそうなモデルを排除する・・・ことですが、そうなると一般的なことも答えが出せなくなることもあり、実用を考えると解決策にはなりません。

    あとは、利用者の倫理・・・になります。

    AIだから、デジタルだから・・・ではなく、紙の文献でも同じような方法を調べることは可能である。ということを考慮して議論していければと考えています。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか