能生成任何人裸照的性犯罪,从韩国开始泛滥

  • 打印
  • 收藏
收藏成功


打开文本图片集

进入“电报”(以保密性著称的即时通信软件)聊天房,上传一张脸部照片,不到5秒钟,采用了深度伪造技术(Deepfake)的机器人(bot)就能合成一张真假难辨的照片——就当前而言,深度伪造技术已经可以把不同人的声音、面部及身体像拼图一样随意拼接,制作成各种影像乃至视频。

2024年8月,大量利用深度伪造制作色情合成物的“电报”聊天群在韩国的社交媒体上曝光,受害者遍布韩国全国,涉及明星、军人、老师、护士、学生等不同群体,多为女性。(剩余5467字)

目录
monitor