近日,韩国出现多起利用AI换脸伪造女性色情露骨图像的犯罪案,在这背后,犯罪者用深度伪造技术(Deepfake)合成色情照片和视频,并在通信软件Telegram的群聊中传播,参与者多达22万人,引发韩国民众恐慌。
韩国女性在包括微博在内的全球各大社交平台上发帖求助,这一话题也在近两日登上多个微博热搜,有人将其称之为韩国又一“N号房”丑闻。
深度伪造的核心原理是利用深度学习算法将目标对象的面部“嫁接”到被模仿对象上,随着AI技术的进步,这一技术工具越来越普遍,门槛变低,容易被有心者利用进行数字犯罪。不仅在韩国,在国内以及全球都有发生,涉及性犯罪以及金融诈骗等领域。