本文来自电子发烧友网,作者/李弯弯。
近段时间,网络上流传不少中国明星飙英语的视频,比如赵本山用英文演小品,郭德纲用英文说相声,范明用英文演戏等。除此之外,网络上也有不少国外明星说着流利中文的视频,如泰勒·斯威夫特、安妮·海瑟薇等。
这些视频都是由AI生成的。近年来,AI技术的发展愈发迅速,利用AI技术生成的虚拟人也越发逼真,模仿真人的时候,无论是相貌还是声音都几乎一样,而且嘴型、手势,身体动作、语速各个方面都能做到非常自然,以至于AI生成的虚拟人与真人几乎可以做到真假难辨。
可怕的AI换脸和换声
上述利用AI技术实现多种语言翻译的能力,确实能够在一些场合实现有价值的应用。然而,它也会带来侵权、诈骗等问题。某律师事务所高级合伙人表示,利用AI技术将相声、小品等翻译成其他语言,如果没有经过著作权人授权,就存在侵权问题;此外,网友用他人形象和声音制作视频,并在网络上发布,如果没有获得授权,则涉嫌侵犯他人肖像权和声音权。
AI换脸、换声的不当应用,除了带来侵权的问题之外,还有不少诈骗分子正在使用该技术进行诈骗行为。此前就有多起AI诈骗事件被公布。中央广播电视总台中国之声《新闻纵横》此前也报道过,随着人脸识别技术的广泛应用和人工智能技术的进步,一些不法分子开始利用AI技术融合他人面孔和声音制造逼真的合成图像来实施新型网络诈骗,类似骗局具有手段多样、门槛低、辨别难度大等特点,经常会防不胜防,短时间内造成较大损失。
AI换脸换声的基本逻辑是通过深度学习特定算法,将目标人物的人脸、表情、声音等嫁接到模仿的视频中,最终实现视听合成的高仿真性,且软件成本低,合成速率高,检测鉴别难度大,一般人难以发现伪装痕迹。不法分子主要以冒充被害人的亲戚朋友、领导同事等身份,骗取被害人的信任,从而获得钱财。
电子发烧友此前在某生物特征识别论坛上,听一位专注于深度伪造技术检测的专家谈到:“我们很多人会经常接到一些广告推销的电话,这些打广告推销电话的人中,有些就是不法分子伪装的。它通过这种通话的方式,可以获得我们的声纹,同时又能够在交谈中,获得我们的各种信息。而且时候,他们团队会有很多个人来给你打电话,以获取足够多信息。”
AI诈骗主要有两种方式,第一种是通过技术手段直接合成换脸、拟声后的短视频或语音,在视频聊天、普通电话中直接播放,这类视频主要用于表达比较紧急的情况,比如遭遇事故求助等等,播放结束后就会掐断连接,无法与被害人形成回合性的对话。另一种是在视频通话中直接换脸并替换声音,直接用拟声拨打电话,第二种难度更高,他需要更长时间的互动,被骗则可以在互动的过程中,去寻找破绽。
上述专家介绍到:“这也是为什么,不法分子很多时候会通过了解我们的作息,选择我们状态不好的时候通话,比如你平时习惯熬夜,早上睡到十一二点才能清醒,他们就选择在早上六七点,你睡得很迷糊的时候打电话进行诈骗。这个时候我们就很难去发现其脸部表情、声音,和交互过程中出现的一些缺陷或者披纰漏。”
AI换脸诈骗并不是无懈可击
目前AI换脸换声确实已经很逼真,但是仔细辨别还是可以看出真假。近日浙江卫视《王牌对王牌》节目中策划了反诈知识传播的部分,其中全员演示了AI换脸换声。比如闫妮伪装成唐嫣,竟然成功骗过张新成。可以看到,除了妆造不同,脸部和声音确实非常像。
可是如果伪装人大幅变动位置,或者站得更远或更近,两部特征就会变形,甚至是变回伪装人原本的样貌。也就是说,如果我们接到亲人朋友的视频电话,为了辨认真假,我们可以让对方多变动一下位置,是有可能识别真假的。
之前也有行业人士谈到过:“如果对方AI换脸,在沟通中一些动作可以让我们发现破绽,比如说,让对方用手捂脸、动一动,就会干扰到图像合成。”通过他的演示可以看到,用手捂脸,可以看到AI换脸之人的眼睛、鼻子会抖动,手拿开的同时,嘴巴也消失了。
除此之外,大家还是需要从源头上预防AI换脸诈骗。比如,陌生电话、一些广告推销电话谨慎接听,防止对方采集我们的声音和信息;在网络上,避免过多发布个人照片、声音和视频;对于外界采集我们人脸、声纹、指纹等生物特征数据要足够谨慎等。
小结
当前,AI技术的快速发展,正在促进各行各业技术应用创新。同时,也有一些不法分子滥用AI技术进行诈骗。当前不少AI换脸虽然看上去逼真,不过谨慎的话还是可以被识别。未来,随着AI技术更加成熟,被用于诈骗的话可能就很难凭借肉眼去识别了。因此,在深度伪造检测方面,以及法律法规对AI换脸、换声等技术的不当应用都需要持续加强。