TWICE、ディープフェイクポルノに法的措置を発表。KPOP界でも深刻、「被害の上位7人は韓国歌手」との米調査も

女性の写真をAIで性的な偽画像に加工するディープフェイクが韓国で大きな問題に。所属事務所のJYPは「アーティストの権利侵害を決して看過しない」と声明文を発表した。
TWICE
TWICE
NBC via Getty Images

韓国で、女性の写真などをAIを使って性的な偽画像に加工する「ディープフェイク」がSNS「テレグラム」を通じて作成・流布されている問題。女性アイドルグループのTWICEは8月30日、公式SNSなどを通じてディープフェイクに「強力な法的措置を講ずる」とする公式声明を発表した

ディープフェイクの拡散は「明確な違法行為」

所属事務所のJYPエンターテインメントは、「最近の、当社アーティストを対象にしたディープフェイク(AI生成)動画の拡散について、深刻な懸念を抱いている」と表明。ディープフェイクの拡散は「明確な違法行為」とし、大手の法律事務所などと協力して「容赦なく強力な法的措置を講じるため、関連するすべての証拠を収集している」と警告した。

続けて、「アーティストの権利が侵害されているのを決して看過せず、この問題に最大限対応するため、断固として行動することを明確にする」と立場を示した。

JYPは、韓国の4大芸能事務所の一つと呼ばれ、TWICEのほかにも、ITZYやNiziU、NMIXXなどの女性グループが所属する。

何が起きているのか? 小中学生も被害に

ディープフェイクとは、動画に登場する人物の顔にAIを使って別の人物の顔を合成加工し、あたかも本人そのものであるかのように見せかける技術のことだ。

今韓国では、秘匿性の高い通信アプリ「テレグラム」を通じて、小中高校生ら未成年を含む一般女性の顔をわいせつな動画などと合成し、流布されていることが明らかになり、ディープフェイクポルノが大きな社会問題になっている。

テレグラムに、「知人」「陵辱」などの特定のキーワードや名前を入れると、 「◯◯(名前)陵辱部屋」などと名付けられたチャットルームが表示される。ここに、参加者が女性の写真を共有し、わいせつな画像などと合成してディープフェイクを作成し、流通するという流れだ。ハンギョレ新聞は、およそ22万人が加入する大規模なチャンネルも確認され、中には収益化を見込み、偽画像の作成を「有料化」するものもあったと報じている。

被害の上位10人中8人は韓国の歌手

KPOPアイドルら女性芸能人がディープフェイクの被害に遭っていることは以前から問題になっていた。

アメリカのサイバーセキュリティ会社、セキュリティーヒーローが行った世界のディープフェイク性犯罪の実態調査(2023年)によると、ディープフェイクポルノの標的になるのは99%が女性で、韓国が最もディープフェイクポルノに脆弱な国として挙げられた。

この調査では、2023年7月から8月にかけ、ディープフェイクポルノを流通させていた10のサイトと、YouTubeなどの動画配信サイト上の85のチャンネルに投稿された9万5820件の動画を分析した。

エンターテイメント業界で働く人が標的となるケースが9割で、女性の歌手や俳優、インフルエンサー、モデル、スポーツ選手などの写真がディープフェイクの映像に利用されている。同社の調査で明らかになったディープフェイクポルノの被害に遭っていた上位10人のうち、1〜7位と9位は韓国の歌手だった。1位の歌手は、映像の数は1595本にも及び、視聴数は約561万に達した。

なお、この調査では被害者の実名は公表されていない。日本は韓国、アメリカに次いで3番目に被害が深刻だとされた。

注目記事