廣告
xx
xx
"
"
回到網頁上方

Deepfake亂合成情色片TWICE也受害 南韓將查Telegram

編輯 李靖棠 報導
發佈時間:2024/09/02 15:24
最後更新時間:2024/09/02 15:24
被視為深偽不雅影片聚集地,南韓傳出將對Telegram展開調查。(圖/達志影像美聯社)
被視為深偽不雅影片聚集地,南韓傳出將對Telegram展開調查。(圖/達志影像美聯社)

南韓近期被網路安全公司點名,指稱該國境內擁有大批深偽(Deepfake)的偽造不雅影片網站,針對各種演員、歌手或名人女性,使用AI換臉技術製作色情影片或圖片,上傳至網路進行流傳散播,其中就連知名女團TWICE也無法倖免,成員也被人惡意合成情色影片,讓JYP娛樂怒而提告。對於這個亂象,南韓媒體指出,國家警察廳即將啟動深入調查,第一步將針對影片最大源頭的Telegram。


 
 
《路透》報導,雖然官方並未對外證實,但近期deepfake引起的性騷擾或不良行為議題,卻已經引起韓國民眾關注。許多南韓電視台和媒體也跟進報導,透過潛入或其他方式,取得部份聊天群組的私密內容,發現確實存在大量使用毫不相關的素人女性或演員、歌手等女性明星的外貌,以此偽造的情色影片與圖片,在社群上瘋狂轉發和流傳。
 
更多新聞:美21歲體操明星疑遭男性友人開槍射殺 學校親友悲痛 

最先曝光這個亂象的是資安企業「Security Hero」,他們釋出最新的研究報告,報告中直接點名南韓,表示從該國網路上一共搜查出9.58萬支偽造換臉的不雅影片,其中超過一半以上,遭到合成羞辱的女性,是該國女性藝人,而不雅影片中99%比例受害對象都是女性。
 
 
為了保護受害人,南韓警方也開設24小時通報保護專線,並擴大監控團隊規模,加強搜查各種深偽影片與網站。但警方也坦言,接下來如要追查Telegram勢必將遇到不小挑戰,畢竟這是一個強調加密的社群平台,警察想從官方手中取得數據的機率,恐怕是難上加難。

《TVBS》提醒您勇敢說不:
◎尊重身體自主權,遇到性騷擾勇於制止、勇敢說不,請撥打113、110
◎現代婦女基金會 性侵害防治服務專線02-7728-5098分機7
◎婦女救援基金會 02-2555-8595
◎勵馨基金會諮詢專線 02-8911-5595/性騷擾專線04-2223-9595

 
 

◤2024史上最熱一年◢

👉地球發高燒台灣未來冬季恐歸零?

👉半顆高麗菜破百,極端天氣惹禍

👉這4電器吃光荷包!教你省電祕訣



全球必讀

#南韓#深偽#deepfake#AI換臉技術#不雅影片#Telegram#TWICE#JYP娛樂

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1497

0.0925

0.2422