SNSに触れずに生活を送るのは不可避と言われる時代。顔写真だけなら大丈夫と思っていませんか? 顔写真をアップしたことで悲劇に見舞われた女の子とその家族を取材した。
フェイクポルノに関する逮捕は全国初
「フェイクポルノの被害を受けた芸能人らは国内で約200人、公開されている動画は350本以上と言われています」
AI(人工知能)の顔認証技術を悪用して出演者の顔を女性芸能人にすり替えたアダルトビデオの偽動画を作成したとして、京都府警は2日、大分県の無職・野間口攻也容疑者(30)を逮捕した。府警によると、ディープフェイクポルノに関する逮捕は全国初。
同日、警視庁と千葉県警も兵庫県のシステムエンジニアの男(47)と熊本県の大学生の男(21)を同様の容疑で逮捕したと発表した。
これらは「ディープフェイクポルノ」などと呼ばれ、これまで多くの女性芸能人を苦しめてきた。一億総SNS時代となった現在、フェイクポルノは芸能人だけの問題ではない。何の落ち度もない一般女性ユーザーも被害にあっているのだ(※記事中ではアイコラなどの写真加工も「フェイクポルノ」と呼んでいます)。
●CASE1● ゆかりさん(18・仮名)
友達と遊んでいる写真が加工されて……
「私の胸じゃないのに……。証明する方法は脱いで見せるしかありません。つまり、もう証明は不可能だということなんです」
ゆかりさんは、そう言うと泣き崩れた。差し出されたケータイ画面には、全裸で悩ましいポーズをとるゆかりさんの姿が1枚。男性の上に馬乗りになり性行為をしていると思わせる画像が1枚。ゆかりさんは、
「見るのも見せるのも嫌だけど」
と言いながら被害を訴えてくれた。もちろん、これはフェイクポルノ。ゆかりさんの顔だけが合成されたものだ。
ゆかりさんは都内の進学校に通う高校3年生。なぜ彼女は被害にあってしまったのだろうか。母・朋美さん(50代・仮名)が経緯を明かす。
「この全裸でポーズをとっている笑顔は、娘が2018年12月のインスタグラムに投稿した写真から抜かれました」