サムスン、従業員の生成AI利用を禁止-ChatGPT経由でデータ漏れる
Bloomberg.com
132Picks
コメント
注目のコメント
企業での利用を考えると、このようなデータの漏洩の問題だけでなく、逆にそのようなデータも含む独自のデータを使ったモデルのチューニングによって、自社の目的に対して精度の高い結果を生成できるモデルの構築の仕組みが重要になってきます。
これにはオープンソースで行う場合とプライベートホスティングが可能な商用モデルが必要になります。LLM のファンデーションモデルそのものを開発するのは難易度が高いですが、事前学習モデルの追加学習にはそれほど計算コストはかかりません。
MLエンジニアのいる企業では、先日のメルカリのチーム補足のニュースにもあったように、すでにこれに取り組んでいます。弊社(Weights &Biases)の製品はほとんどのファンデーションモデル開発会社に使われており、追加学習のユースケースもふえる一方です。またHuggingFaceというサービスは数年前からベースモデルプラス追加学習というトレンドに目をつけて開発フレームワークを提供しています。勃興期だけにどこでも起きうる問題。経営者としては他山の石としないと。
「同社エンジニアが4月に社内ソースコードをChatGPTにアップロードし、誤ってリークさせた。どのような情報を含んでいたかは不明。サムスンの担当者はコメントを控えた。」ITを理解しないと、とんでもないリスクになる。ChatGPTは一人の人間として扱わないといけない。つまり社外もらしてはいけない情報をインプットしたらいけないという事。当たり前の事なのだが一般の人が使い出すとこういう事になるという事例。