社会

ABEMA TIMES

2025年12月17日 11:30

倒壊する家屋、津波から逃げ惑う人々…地震で“悪質フェイク動画”が拡散 AI検知システムがフェイクと見抜いた電線の不自然さ

倒壊する家屋、津波から逃げ惑う人々…地震で“悪質フェイク動画”が拡散 AI検知システムがフェイクと見抜いた電線の不自然さ
広告
1

 12月8日、青森県東方沖を震源とするマグニチュード7.5の地震が発生した。          

【映像】地震で拡散された“悪質フェイク動画”(実際の映像)

 最も激しい揺れの震度6強を観測したのは青森県八戸市で、青森県の東北町では国道が大きく陥没。アスファルトが割れて乗用車が巻き込まれ、車を運転していた男性は病院に搬送された。

 そんな中、SNSで拡散されたのがAIで作成された“フェイク動画”だ。今回の地震は午後11時15分ごろと深夜に発生したが、フェイク動画では「先ほど地震が発生した」と言いながらも周囲は明るく、昼ごろを思わせる映像になっている。

 さらには倒壊する家の下敷きになる男性や、津波から逃げ惑う人々の様子を伝える悪質なフェイク動画もあった。能登半島地震など大災害が起きるたびに、数々のフェイク動画が拡散されている。

 本物とフェイクを見分ける方法はあるのか。AIを用いてフェイク動画などの検知を行う会社「NABLAS」を取材した。

 取締役の鈴木都生氏によると、フェイク動画の生成パターンは「実際の写真に動きをつけて動画にしていく」「ゼロから作り出す」「実際の動画の顔だけ替える」「実際の動画の口だけ替える」といったものがあるという。

 鈴木氏は「生成されるいろいろなパターンに対して、AIで行われる“痕跡”や“らしさ”みたいな特徴を見つけていくようなAI技術、AIモデルを開発している」と説明する。フェイク動画とひと口にいっても、その生成方法にはさまざまなパターンがあるため、本物とフェイクをひたすらAIに学習させ、AIによる痕跡を見つけられるようにするのだという。

 そこで実際に、青森での地震のフェイク動画をフェイク検出サービス「KeiganAI」にかけてもらった。今回調べてもらったのは、およそ10秒の動画で、1秒の30分の1となる1フレームずつをAIがチェックしていくという。

 鈴木氏は「この動画に対して、総じてフェイクの可能性があると見ています」とコメント。動画の場合チェックする項目は大きく分けて「物体や背景に現れる不自然さ」「動きに現れる不自然さ」「人間の顔に現れる不自然さ」の3つ。それぞれの項目に対し、AIがどれだけ不自然さを感じたかをグラフで表示する。

 鈴木氏は「特に前半、その辺りのシーンをけっこう怪しいと見ている」として、AIが不自然さとして指摘したのが「背景の電線が一部途切れている」部分だと説明。該当の部分をコマ送りで観てみると電線が不自然に途切れており、AIはわずかな不自然さも見逃さずに発見していた。

 フェイク動画に騙されないため、どこに注目したらいいのか。鈴木氏は「一番わかりやすいのが『Sora』のロゴが出ている。2つ目が、人であれば“人らしさ”、クマであれば“クマらしさ”。毛並みや人間の肌の質感などが妙に均一すぎること。動きの不自然さとして、ケンカしていたら殴った先に影響があまり出ていないとか。人であれば、指の数が6本になったり4本になったり。何かを掴んでいるとき、掴み方がおかしかったり、そういう不自然さがある」と、ポイントを解説した。

 調べた上でリアルかフェイクかわからないものもあるのか。「『フェイクの可能性がある』で終わるものはある。AIの領域は世界中で優秀な技術者たちが日々進化させたり新しいものを作っているので、中には恐らく我々が検出としてキャッチアップしきれていない新しい技術が急に出てきた場合、機能しないこともあるとは思う」とコメントした。

 さらに「世界最高性能のフェイク判定技術」の実現に成功したという人物に話を聞くことができた。

 東京大学大学院情報理工学系研究科の特任研究員・塩原楓氏は「あるディープフェイクの方法で作られた画像と本物の画像を分類するような学習をすると、それ以外が全然検出できない。本物の画像からいろいろなディープフェイクに共通する痕跡だけで作られた『なんちゃってディープフェイク』を学習すると汎用的に検出できる性能が、今までよりも高かった」と説明。

 塩原氏らが当時取り組んだのは「AIに学習させる画像」を変更すること。以前は本物とフェイクを学習させることでフェイクを分類させるのが主流だったが、この方法だとこれまで学習していないタイプのフェイクを見抜けなかった。一方、塩原氏らは既存のフェイクは使わずに、フェイク画像によく見られる痕跡を持つ「フェイクっぽい画像」を自分たちで生成。それをAIに学習させたところフェイクを見抜ける性能が向上。2022年にはMicrosoftやAmazon、Facebookよりも高い性能でフェイクを見抜くことに成功した。

 それから3年、さらにフェイクを見抜く性能を上げるためにはどのようなことが大事なのか。塩原氏は「本物の人間らしさって何なのかを学習させることだと思う。本物の人間がどういうものなのかを学べると、汎用的にどういう偽物に対しても検出できる。そこを学ばせるのが重要」とコメント。

 「フェイク動画にだまされない自信は?」という質問に「ない」ときっぱり答えた塩原氏。「後々気づくことはあり、『これはフェイクだったか』と思うが、最初1回だけ動画を見た時に信じてしまうことはある。見て、それを100パーセント信じるのではなく、一旦自分で考えることが今後必要になってくると思う」と提唱した。

(『ABEMA的ニュースショー』より)

広告