照片“活化”成视频 AI深度合成技术怎防被滥用?

公安部门近年来在上海、浙江、安徽、江苏等地办案发现,多名犯罪嫌疑人使用深度合成技术,将非法盗取或有偿求购的照片和音频进行“活化”、合成为动态视频后进行非法牟利:或是骗过平台的人脸识别机制直接盗取他人账户钱款,或是骗过手机卡注册的人工审核环节,盗用他人手机号进行电信网络诈骗。
复旦大学信息科学与工程学院副教授,是我们公需课数字化技术的凌力老师在接受东方卫视采访时表示,深度合成技术的发展速度越快,融入现实生活的程度越深,就越可能侵犯到个人隐私、威胁到社会信息系统安全。并提出了自己的应对方法。