被骗2亿港元?多人视频竟只有一个为真人,摁鼻子就能辨真假?!

电脑天呐好棒 2024-03-04 10:17:03

2023年被称为AI技术爆发的元年,全球很多公司都推出了类似ChatGPT的产品,它们可以自动学习生成不同的图片、视频、文本、声音等,只要你给出的关键词足够精准,答案就能无限接近你的想象。可以说AI在某些方面已经足以替代甚至超越人类。

但是高科技的产物,一旦被恶意利用,这后果也是不堪设想的。你能想象吗?在一个多人视频会议中,竟然只有一个人是真人。这事听上去似乎匪夷所思却真实地发生了。

近期,香港警方披露了一起多人 “AI换脸”诈骗案涉案金额高达2亿港元。

在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元分别转账15次,转到5个本地银行账户内。

其后,向总部查询才知道受骗。警方调查得知,这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。

必须注意的是,随着深度合成技术迅猛发展,可以实时生效、作用于视频聊天的AI换脸技术早已出现,有不少人因此上当受骗。

据专家介绍,“AI换脸”过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤,最核心的包括三个部分:

首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。

其次,将这些特征与目标人脸图像进行匹配、替换、融合。

最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。

需要注意的是,AI人脸合成软件在网络上非常容易获取。在网上,演示换脸软件使用方法及效果的教程比比皆是,其中不少“AI换脸”软件需要付费使用。

在某个提供AI换脸服务的网站上,开发者演示了一段使用其软件实现换脸的示范视频。

左侧为原始视频,右侧为换脸之后的视频 图源中央广电总台中国之声

肉眼来看,换脸之后的“数字人”口型、表情、微小的动作几乎毫无破绽。

该软件还支持将真人的眼睛和嘴巴“拼接”到一起,生成全新“数字人”。

据上述软件开发者表示,想换什么脸都可以,拿素材训练即可。不仅可以实现视频换脸,还支持直播换脸。

只需要少量的音视频样本数据,就能合成人工审核都难辨真假的伪造音视频,从而进行精准诈骗,或者销售、恶意传播换脸不雅视频,这些视频甚至还能够被用于一些支付平台进行贷款套现。

要知道,实际生活中,很多人对照片等静态信息易被篡改有所警惕,但对声音、视频等动态信息的信任度还是比较高的。

再加之“伪造”合成技术升级的速度实在太快了,这对人脸、声纹等个人敏感信息保护形成巨大挑战,也造成监管成本和难度高了好几个数量级。

如何识别AI“换脸换声”?

以往,人们常说:视频不能作假,所以....

但自AI换脸技术出现后,耳听眼见都不一定为实了。那我们就没有办法辨别?

其实,目前视频换脸的技术上也不是无懈可击的,在视频沟通时的一些动作,就可以发现破绽。

中国计算机学会安全专业委员会数字经济与安全工作组成员 方宇:我们可以要求对方在视频对话的时候,在脸部的前面通过挥手的方式,去进行识别,实时伪造的视频,因为它要对这个视频进行实时的生成和处理和AI的换脸。

在挥手的过程中,会造成面部的数据的干扰。挥手过程中,他所伪造的这个人脸,会产生一定的抖动或者是一些闪现,或者是一些异常的情况。

第二个就是,在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。

中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸,观察其面部变化。

他表示,如果是真人的鼻子,按下去是会变形的,但AI生成的鼻子并不会。

同样脸部也一样,真人脸部按下去是会变形的。

此外,还可以通过软件来识别,比如替换的眼睛、鼻子、嘴巴和轮廓,像素大小是不一样的,颜色的色域是有差别的,这些我们肉眼看不出来,但是软件算法是可以检测出来的。

最后提醒大家,请勿轻易向他人或APP提供自己的人脸、指纹等个人生物信息,不过度在社交平台分享清晰可见的动图或视频等,提高自我保护意识。网络转账前务必核验对方身份,一旦发现有异常,及时报警。一旦发现风险,立马报警求助。

0 阅读:0