生成AI学習データ、事業者に開示指針 政府が骨子案
コメント
選択しているユーザー
注目のコメント
具体案は年内に見えてくるようですが、生成AIのルール策定に向けた大きな方向性が見えてきました。
全事業者に対しては、リスク把握と人権への配慮を求め、また各事業者を①「基盤モデル」の開発者②AIにデータを学習させる事業者③システム開発者④サービス提供者⑤AIサービスを使う企業に分けた上、それぞれに透明性を確保することを求めるようです。
ただ、法的拘束力や罰則は設けられないため、最終的には各企業の判断に委ねられ、対応のレベル感は異なることになりそうです。
EUのような厳格な規制でもなく、インドのような無規制に近いものでもなく、見方によっては中途半端な感じもしますが、一方で権利保護が必要でもありつつ、国内のAI開発力・国際競争力の底上げも課題であることを思うと、厳しくも緩くもできない状況は理解できるところでもあります。
緩さの点では、データの悪用や流出、著作権侵害などを侵す企業が多発するリスクが心配されるところでもあります。ですが、開発企業としてはそれらの安全性・信頼性を担保することができなければ、導入企業や消費者の方々に長く選ばれるサービスにはなり得ないはずで、競争の上では必然的に透明性確保に向けた対応が求められていくはずです。
年内策定を目指して引き続き議論が重ねられていくとのことで、引き続き動向に注目してしていきたいと思います。生成AIの良さが損なわれないように、そしてこの方針決めやデータ開示にかかる工数がかかりすぎるような本末転倒にならないことを願います。
規制するためのものではなく、回避しなければいけないリスクをヘッジするためのものであってほしいです。開示させるのは良いのですが、
情報が漏れない様な管理と、
しっかりした解析と評価が出来る体制や人材が
果たして官僚や政府にあるのでしょうか。
そもそも生成AIの仕組みまで
しっかり理解してる人がどれだけいるのか。
マイナンバー関連の様に、
本来の管轄省庁は責任を取らず、
デジタル庁に丸投げとか適当なことに
ならない事を祈るばかりです。