事件・事故
韓国芸能人100人の顔で合成わいせつ画像を製作
韓国警察はIT分野の開発者が韓国の芸能人100人余りの「ディープフェイク」と呼ばれるわいせつ画像を製作、配布しているとして捜査を進めている。ディープフェイクとは人工知能(AI)による学習を意味するディープラーニングとフェイク(偽物)の合成語で、AIを使い、偽の映像をつくる技術を指す。
ソウル麻浦署は19日、海外にサーバーを置くサイトで韓国の芸能人100人余りのディープフェイクによるわいせつ画像3000件余りが製作、配布されているとする告発を受け、捜査に着手したことを明らかにした。警察などによると、問題のサイトは2018年に開設され、サイト運営には韓国人だけでなく、中国人などのIT開発者も関与しているという。開発者が密かに情報を共有するコミュニティーのメンバーだけで先月現在で1万4000人に達する。
ディープフェイク映像は合成しようとする人物のさまざまな角度からの写真数百枚を入力し、AIでまるで実際の人物の映像かのように仕立てるものだ。インターネット上で簡単に写真が入手できる有名人がターゲットになりやすい。当初はポルノ俳優に有名芸能人の顔を合成するところから始まったが、最近はフェイクニュースと同様に政界の問題にも浮上した。2018年には米国のオバマ前大統領が「トランプはごみ」と発言する映像がユーチューブに投稿され、ディープフェイク映像と判明したケースがある。
警察などによると、問題のサイトの会員多数がディープフェイク画像の製作に積極的に加担しているという。どの芸能人の映像をつくるかを投票で決め、女性芸能人の写真と元となるポルノ画像を共有していた。製作方法を紹介する掲示板が別途運営され、サイト運営者は会員にディープフェイク画像の製作プログラムを提供していた。同サイトには年初来、毎日40件以上の違法な動画が掲載されており、一部のわいせつ動画をクレジットカード決済で販売している。警察は同サイトのサーバーが中南米の国にあるとみて捜査している。