松本佳奈さん(仮名、22歳)は、北関東の店で働くクラブ嬢だ。3カ月ほど前、店のポストに松本さん宛に送り主不明の封筒が投函されており、そこには驚愕のブツが入っていたという。
「その封筒の中には一枚のCD-Rが入っていました。自宅に帰って再生してみると、そこには当時別れたばかりの元カレと私が“シテいる最中”の映像が収められていたんです。30秒ほどに短く編集されたダイジェスト版のような内容でした。犯人は元カレに違いないと思って電話してみると、『へ?何のこと』と本当に何も知らない様子。警察に被害届を出そうとも思ったけど、映像を誰かに見られるのは絶対イヤだし……。Amazonで盗み撮り発見器を買い、防犯アプリをダウンロードして、自分と元カレの部屋も調べてみたけど何も反応なし。いろいろ調べていくうちに、その映像が“ディープフェイク”と呼ばれる捏造動画だと知りました」
近年、AIの技術は急速に進化しており、写真や動画を合成して作られた偽物の映像「ディープフェイク」は精緻を極めつつある。これは、AIによる深層学習「ディープラーニング」と「フェイク」を掛け合わせた造語で、これまでも特に艶動画に悪用されるケースが目立っていた。
そんな中、最近ついに警察も摘発に乗り出した。今年10月4日の時点で、艶系女優の動画に女性芸能人の顔を当て込んだディープフェイクを作り、インターネット上に拡散させた容疑で3名の逮捕者が出ている。
この報道を受けてネット上では「ディープフェイクは本物と全く見分けがつかないから悪質」「こんな馬鹿げたことに技術を使うなんてどうかしてる」「リベンジに使われたらと思うとゾッとする」などの声が上がっている。
ITジャーナリストは、「今回の逮捕を皮切りにディープフェイクがなくなることはなく、今後は芸能人に限らず一般人をターゲットにした被害が出てくるだろう。なぜなら、私の知る限りディープフェイク用のアプリは10種類ほどあり、誰でも手軽に作れてしまうから。ベースとなる(艶系)動画をパソコンに保存し、その映像に顔写真を設定すれば、その後はソフトがほとんど自動で作ってくれる。フェイク映像がリベンジポルノや脅迫などに使われないためにも、極力自分の顔写真や動画は第三者の手に渡らないようにすることが大切だ」と警鐘を鳴らす。
冒頭で紹介した松本さんも、SNS上にアップしていた写真をもとに、ディープフェイクが作られた可能性が高いという。
「当時、SNSには元カレとの写真を何百枚も上げていたんです。おそらくその写真を使って、私と元カレのフェイク映像を作ったんだと思います。映像をよくよく見ると、顔はソックリだけど部屋の背景やベッドが違いましたからね。犯人も多分コイツだろうっていう目星もついていて、おそらくクラブの客。半年ほど前にしつこくつきまとわれていて、メールや電話を一切無視していたので、その逆恨みでしょうね。どんな方法かはわかりませんが、私のSNSアカウントを見つけて顔写真を悪用したんだと思います」
本物ソックリのディープフェイクは、第三者では見分けがつきにくいため、もしこれがネット上に拡散されれば、被害者の社会的ダメージは計り知れない。AI技術の向上が人々に福音をもたらすとは限らないのだ。
(橋爪けいすけ)