只需3秒语音,
就能克隆你的声音;
上传一张照片,
就能生成动态视频。
这不是科幻电影,
而是正在发生的真实事件。
近日,“靳东两会建议 AI 换脸立法”这一话题冲上了热搜的第一位。在此之前,雷军提出的“加强‘AI 换脸拟声’违法侵权的重灾区治理”这一建议,也得到了广泛的关注。
人工智能(AI)技术发展迅猛,AI 换脸等深度合成技术开始进入大众的视野,它的应用范围在不断地扩大,然而却被不法分子加以利用,从而催生出了很多违法犯罪行为。
在某平台进行“AI 声音克隆”的搜索,会跳出以下服务:可以花费 200 元定制明星语音包,花费 500 元制作名人换脸视频,并且还支持“情绪调节”的要求,即如果想要明星笑着推荐理财产品,加钱就能够实现。
这些商家借助开源的 AI 工具,仅用短短几分钟的名人原声或者公开演讲视频,就可以很轻易地生成足以以假乱真的换脸视频。因为仿冒名人的内容制作起来成本很低,并且账号还经常更换,所以受害者很难进行防范。
AI 换脸能够提取人脸图像的面部特征。一张静态的人像照片若被诈骗分子窃取,是否能进行换脸呢?
专家表示,经过一段时间的模型训练后,一张静态照片能够在演示者的控制之下,做出转头的动作,能够做出张嘴的动作,能够做出眨眼的动作,能够做出微笑的动作等,就像真人一样。
更令人担忧的是,AI 换脸技术有两方面表现。其一,它不局限于静态照片的活化;其二,它还能在即时视频通信里实现实时换脸。虽然这需要采集众多不同角度的照片来进行模型训练,然而一旦训练成功,就能够达到以假乱真的效果。声音的还原也不是一件困难的事,只要预先采集目标人群的声音并进行模型训练,就能够实现声音的精准模仿。
1.多留心多注意“瑕疵”
AI 生成的内容不是完美无缺的,只要认真去看,就能找出其中的毛病。
AI 语音通常带有机械尾音,其在重音停连方面的语气不够自然;AI 换脸视频里的眨眼频率是固定的,嘴角肌肉的运动或许不自然等。
2.多种方式验证“真伪”
对方用手指或其他遮挡物在脸前晃动。如果画面出现类似果冻效应或者扭曲的情况。那么对方很可能正在使用 AI 换脸技术。
询问对方诸如生日、电话、喜好等私密的问题,以此来确认对方的身份。
涉及转账或借钱等经济方面的往来时,为了确保安全,能够要求对方进行线下见面。
3.保护个人隐私
AI 诈骗是由隐私信息泄露以及诈骗陷阱共同构成的。我们应当增强对个人隐私的保护力度,不能随意提供人脸、指纹这类个人生物信息;同时也不能过度地公开或分享动图、视频。
大家不必对 AI 诈骗过于恐慌。国内的科研团队和科技企业正在努力研发针对虚假信息的检测技术,并且在不断提升语音、面部合成信息的检测成功率。只有大家共同努力,才能够构建出一个更加安全、健康的网络环境。
记者:陈洁