• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

サムスン、従業員の生成AI利用を禁止-ChatGPT経由でデータ漏れる

Bloomberg.com
132
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    Weights & Biases カントリーマネージャー

    企業での利用を考えると、このようなデータの漏洩の問題だけでなく、逆にそのようなデータも含む独自のデータを使ったモデルのチューニングによって、自社の目的に対して精度の高い結果を生成できるモデルの構築の仕組みが重要になってきます。
    これにはオープンソースで行う場合とプライベートホスティングが可能な商用モデルが必要になります。LLM のファンデーションモデルそのものを開発するのは難易度が高いですが、事前学習モデルの追加学習にはそれほど計算コストはかかりません。
    MLエンジニアのいる企業では、先日のメルカリのチーム補足のニュースにもあったように、すでにこれに取り組んでいます。弊社(Weights &Biases)の製品はほとんどのファンデーションモデル開発会社に使われており、追加学習のユースケースもふえる一方です。またHuggingFaceというサービスは数年前からベースモデルプラス追加学習というトレンドに目をつけて開発フレームワークを提供しています。


  • badge
    Scrum Ventures Founding Partner

    勃興期だけにどこでも起きうる問題。経営者としては他山の石としないと。

    「同社エンジニアが4月に社内ソースコードをChatGPTにアップロードし、誤ってリークさせた。どのような情報を含んでいたかは不明。サムスンの担当者はコメントを控えた。」


  • badge
    青山学院大学 地球社会共生学部 学部長 教授 / 音楽家

    ITを理解しないと、とんでもないリスクになる。ChatGPTは一人の人間として扱わないといけない。つまり社外もらしてはいけない情報をインプットしたらいけないという事。当たり前の事なのだが一般の人が使い出すとこういう事になるという事例。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか