社員が機密情報をChatGPTに入力、上司の知らぬ間に漏洩も 生成AIの安全対策は可能?〈dot.〉
AERA dot. (アエラドット)
3Picks
コメント
選択しているユーザー
ChatGPT Web版ではユーザーが入力した内容をAIに学習させないようにオプトアウトを受け付けているので、
入力データの利用を避けたい際には、オプトアウト申請を行うなど対応した方が良いでしょう。
そもそもとして、入力されたデータは、データベースに保存されている可能性があるので、
学習データとして利用されない場合も、サイバー攻撃や内部不正による情報漏えいに繋がる可能性があります。
昨今、業務利用に許可を出したケースも増えてきていますが、同時に内部ルールの策定、従業員への周知・教育が求められます。
注目のコメント
プライバシー侵害、企業秘密漏洩、雇用喪失、サイバー犯罪、そして制御不能な進化。ChatGPTには、備えるべき大きなリスクがある――
AERAdotにChatGPTのリスクについてまとめた記事を寄稿しました。前後編の前編です。