南韓近期被網路安全公司點名,指稱該國境內擁有大批深偽(Deepfake)的偽造不雅影片網站,針對各種演員、歌手或名人女性,使用AI換臉技術製作色情影片或圖片,上傳至網路進行流傳散播,其中就連知名女團TWICE也無法倖免,成員也被人惡意合成情色影片,讓JYP娛樂怒而提告。對於這個亂象,南韓媒體指出,國家警察廳即將啟動深入調查,第一步將針對影片最大源頭的Telegram。
《路透》報導,雖然官方並未對外證實,但近期deepfake引起的性騷擾或不良行為議題,卻已經引起韓國民眾關注。許多南韓電視台和媒體也跟進報導,透過潛入或其他方式,取得部份聊天群組的私密內容,發現確實存在大量使用毫不相關的素人女性或演員、歌手等女性明星的外貌,以此偽造的情色影片與圖片,在社群上瘋狂轉發和流傳。
更多新聞:美21歲體操明星疑遭男性友人開槍射殺 學校親友悲痛
最先曝光這個亂象的是資安企業「Security Hero」,他們釋出最新的研究報告,報告中直接點名南韓,表示從該國網路上一共搜查出9.58萬支偽造換臉的不雅影片,其中超過一半以上,遭到合成羞辱的女性,是該國女性藝人,而不雅影片中99%比例受害對象都是女性。
為了保護受害人,南韓警方也開設24小時通報保護專線,並擴大監控團隊規模,加強搜查各種深偽影片與網站。但警方也坦言,接下來如要追查Telegram勢必將遇到不小挑戰,畢竟這是一個強調加密的社群平台,警察想從官方手中取得數據的機率,恐怕是難上加難。
《TVBS》提醒您勇敢說不:
◎尊重身體自主權,遇到性騷擾勇於制止、勇敢說不,請撥打113、110
◎現代婦女基金會 性侵害防治服務專線02-7728-5098分機7
◎婦女救援基金會 02-2555-8595
◎勵馨基金會諮詢專線 02-8911-5595/性騷擾專線04-2223-9595
◤2024史上最熱一年◢