ディープフェイク動画の脅威とそれを見破る方法・技術を詳解 生成AIを使った本物そっくりの動画はこうして見破る
コメント
注目のコメント
ディープフェイクの最大のリスクは世論操作です。敵対国の宣伝工作に使われて、都合の悪い政治家を落選させるのが目的です。これは選挙という民主主義の根幹を揺るがす悪質な攻撃と言えます。現代のハイブリッド戦争の有力な武器となってきました。
ディープフェイクの大きな問題は、「相手に影響を与え、我の意図した方向に誘導する」を大衆に行い、大衆を動かしてしまうことですね。
記事では、最近のディープフェイクの話題、ディープフェイクの作成方法について触れ、"現時点での"見破る方法がいくつか紹介されています。
Microsoft の「Microsoft Video Authenticator」技術、Intelの96%の精度でフェイク動画を検出できる「FakeCatcher」技術などです。
おそらくこれらの技術もあと少しで、ディープフェイク側(つまりAI側)が追いついてくるでしょうね。近いうち、不適切発言の音源を公開された政治家や芸能人が「それはディープフェイクです」とシラを切る事例が出てくるのかな。
それに対抗するために、音声+映像+GPS+時刻を記録し、ブロックチェーンで真偽を証明するレコーダーが現れたり。