我们已经进入“后真相时代”。
任何人都可以在网上任意胡编乱造。由于机器学习和人工智能研究最近取得的进展,这个问题进一步恶化。现在,不仅仅是新闻,其它任何媒体内容和消费品都能在人工智能的帮助下提高作伪水平。从音像制品到金融交易再到假冒伪劣产品,甚至手写签名都能达到惊人的仿真度,让人防不胜防。如果我们以其人之道,还治其人之身,利用帮助造假的电脑系统来鉴别真伪,是否也能轻易戳穿造假分子的伎俩?
伪造音频
从古至今,欺诈和骗局都从没有停止过。人类历史充斥着冒牌先知、煽动家、贩卖所谓万灵油的小贩、无孔不入的骗子和老千。现在,任何掌握数字技术的不良商贩,只要懂得如何玩转阴谋论和弄一个似是而非的品牌,都能成为YouTube上的热点,立即触及全球受众。时下,“真相”的定义取决于你和什么人讨论这个问题。绝大多数人一直认同一点,只有拿出坚实的证据,才能证明你说的就是真相。视频和音频记录长久以来便被视为可靠的证据来源,但随着人工智能技术最近取得的进步,事情正在发生改变。
2016年7月,华盛顿大学的科学家研发了一个机器学习系统,不仅能够合成一个人的声音和发声机制,同时还能将人工生成的口型与视频整合到一起。基本上,你能伪造任何人的声音并与视频整合,让任何人说你想说的任何东西。他们利用奥巴马的演讲视频训练这个机器学习系统,让系统的神经网络学会如何将各种语音特征与对应的口型联系在一起。研究小组生成CGI唇动,在3D姿态匹配的帮助下将CGI唇动与总统的视频整合在一起。基本上说,他们能够利用相关音轨伪造一段令人难辨真伪的视频。
毫无疑问,这项技术存在被滥用的风险,但也有很多积极用途。研究人员在论文《合成奥巴马:从音频学习对口型》中指出:“利用音频生成高品质视频的能力能够大幅降低视频编码/传输所需带宽。在当前的互联网带宽中,视频编码/传输占很大比重。”对于听力受损的人,这种视频合成技术能够让他们具备另一种意义上的“读唇”能力,进而获取电话音频的信息。任何“数字人”对娱乐应用都至关重要,例如电影特效和游戏。
伪造视频
除了华盛顿大学,其它高校也将目光投向类似技术。2016年,斯坦福大学的一支研究小组发布了Face2Face系统。华盛顿大学的技术是利用音频生成视频,Face2Face则是利用视频生成视频。该系统利用网络摄像头捕获用户的面部表情和口型,而后利用这些信息让锁定的YouTube视频发生实时“变异”,与用户的表情和语音完美匹配。
立基于人工智能的音频-视频转化是一条双行道。华盛顿大学的系统利用音频生成视频,麻省理工学院的CSAIL团队反其道行之,利用无声视频生成音频。这项技术性能出众,足以愚弄人类观众。研究论文主执笔人安德鲁·欧文斯在接受MIT News采访时说:“当你用手指滑过酒杯,所发出的声音能够揭示杯中的酒量。通过算法模拟这些声音,我们能够获取物体形状和材质的关键信息,以及它们与世界交互时产生的力和运动。”
请点击此处输入图片描述
麻省理工学院的深度学习系统经过数月训练,采用了1000段含有大约4.6万种声音(用鼓槌戳碰、打击或者刮擦不同物体)的视频。与华盛顿大学的算法一样,麻省理工学院的算法学会将不同音频特征与屏幕上的特定动作联系在一起,在视频播放的同时合成声音。研究小组进行在线测试,选择伪造音频的人次是选择真实音频的两倍。
麻省理工学院的研究小组表示他们可以利用这项技术,增强机器人的态势感知能力。欧文斯说:“看到一条人行道,机器人本能地知道混凝土很硬,草很软,也因此知道踩上去会发生什么。如果想预测与周遭世界进行物理互动可能产生的结果,具备预测声音的能力无疑是非常重要的一步。”
音频合成研究并不仅限于大学,很多大公司也在研究这项技术。谷歌研制了Wavenet,一个能生成原始声波的深度神经网络系统。电脑生成的文本转语音(TTS)系统的第一迭代是拼接式合成。具体地说,首先记录下各种语音片段,将它们输入数据库而后利用电脑进行拼接,形成词汇和句子。不过,最终生成的语音很不自然,与真人发声相距甚远。
Wavenet利用人讲话时的声波进行训练。该系统对录音进行采样,提取数据点,每次最多可进行1.6万次。为了输出声音,Wavenet利用一个模型,根据上一个声音,预测下一个声音。整个过程虽然需要进行大量运算,但生成的音频品质极高,让传统方式无法望其项背。
伪造签名
伦敦大学学院正利用人工智能研究笔迹模拟技术。如果这项技术被滥用,未来的机器人能够伪造签名,进而伪造出真假难辨的官方文件。这个系统被戏称为“用你的手写我的字”,能够准确复制他人的笔迹,而需要的不过是一段文字。它立基于字形,也就是每个人笔迹的独特特征。通过测量水平和垂直间距、字母间的连接以及书写纹理等特征,该程序能够成为一个模仿笔迹的高手。
研究论文主执笔人、伦敦大学学院的计算机科学博士汤姆·海恩斯在接受UCL News采访时表示:“我们的软件拥有大量有价值的应用。中风患者无法正常写字,即使能写出来,估计你也看不懂。给人送花的时候,你会手写一张卡片,但有时候,粗心的花商却把它忘得干干净净。漫画也可以利用这项技术,将手写段落翻译成不同语言,无需作者亲自动手。”
虽然这项技术能够用于伪造签名,但同时也能让我们轻松辨别签名是否造假。伦敦大学学院计算机科学系的加布里埃尔·布罗斯托博士表示:“伪造和司法笔迹鉴定几乎仍完全由人工完成。通过纹理合成对笔迹进行分析这种新奇方式,我们的软件能够分析出笔迹的各种特征,对伪造可能性进行量化。”
打击假冒
在互联网世界,赝品和仿品层出不穷,从未停歇。经济合作与发展组织最近进行的评估发现,全球市场每年的假冒商品销售额在4600亿美元左右。Entrupy鉴定系统能够在打击假冒商品方面扮演重要角色。Entrupy首席执行官韦德尤斯·希里尼瓦桑表示:“如果是一个完美的世界,就没有我们存在的必要。我们要做的是为市场注入更多可信度,让整个商贸领域受益。”
Entrupy公司首先拍摄大量奢侈品的照片,而后利用这个数据库帮助客户——通常是二级零售市场,例如复古服装店、精品店或者eBay卖家——鉴别商品真伪,准确度在98.5%左右。客户会收到一个便携式显微镜,拍摄可疑商品各部位的照片,例如外部、LOGO或者内衬。照片随后输入一个移动应用,上传到Entrupy的服务器。服务器上的分类算法马上投入工作,区分真品与赝品之间的差异。如果确定为真品,Entrupy将颁发一张真品证书。
虽然Entrupy公司的数据库种类繁多,但鉴定系统当前的能力仍存在局限。光学元件、高反射性或者透明物品很难鉴定真伪,任何没有表面纹理的商品也是如此。此外,含有瓷片、钻石、玻璃、纯塑料和稀有金属的商品也无法鉴定。
与文中提到的其它人工智能系统不同,Entrupy的系统几乎不会被造假分子利用。希里尼瓦桑说:“如果造假分子伪装成真实客户和合法商家,考验我们的系统,我们也会欣然接受,因为该系统不会告知用户他们拍摄的哪些照片被用于鉴定商品真伪。我们要求客户拍摄商品不同部位的照片,因为照片不仅仅用于鉴定真伪,同时也为了能够全方位了解商品的各种特征,从工艺到材质再到磨损,同时获得其它大量能够提供上下文的元数据。”
此外,Entrupy的系统不断更新,添加新数据。新数据不仅来自Entrupy的自身努力——伪装成秘密买家,购买假冒商品——同时也来自于用户自身。鉴定过程拍摄的照片,不管鉴定结果是真是假,都会添加到公司的数据库,进一步提高准确性。希里尼瓦桑说:“在不久的将来,我认为人工智能和机器学习将成为一个造假工具,进一步提高造假水平。这是一场间谍对间谍的较量,一场猫鼠游戏。”
魔高一尺 道高一丈
随着伪造识别能力的增强,造假分子也将升级换代,采用品质更高的材料和工艺。这意味着假冒商品的制造成本提高,价格不再具有经济可行性。希里尼瓦桑指出:“任何造假分子都要遵循这样的逻辑,某些商品可以轻易伪造,并且能够以很低的成本大量伪造,进而赚取丰厚利润。否则的话,他们就无利可图。”
网络金融服务提供商Paypal也采用了类似举措,打击欺诈行为。PayPal负责全球风险预防的高管王慧(音)在接受Engadget采访时指出:“今天,我的帐户在旧金山被访问,明天在纽约,后天也换了一个IP。这种异常活动说明可能有人盗取了我的帐户。为了探测到这种欺诈行为,我们会对IP、机器和网络进行追踪。”
PayPal研发了一种算法,将目光聚焦IP以及IP对应的地理位置,与用户的帐户历史记录进行比较,以确定是否与以往的记录匹配。此外,他们还打造了一项专有技术,将这种IP地址模式与其他用户进行比较,以确定能否给出一个合理解释,例如用户乘坐飞机到纽约出差,在机场礼品店买了一件纪念品,而后继续商业之旅。
PayPal的人工智能系统还试图识别每一个此前使用的IP,确定IP究竟是酒店的加密以太网还是机场的公共WiFi。王慧表示:“这种算法会从你的帐户历史记录获取大量数据。除了追踪账户记录,它还会分析你的网络流量,因为其他人也会使用同一IP。根据这些原始信息,算法选择特定数据点并利用这些数据点评估交易是否合法。”
绝大多数行动以及后续决定——例如验证或拒绝付款——都自动完成。如果这种算法的可信度很低,运营中心的调查人员便会亲自出马,对交易展开调查。王慧说:“我们也参与整个过程,确保人类智慧融入到这个自动化系统。因此,机器学习系统能够不断学习、改进和提高准确度。”
所有这些系统——无论是在设计上用于伪造还是鉴定真伪——仍处在婴儿时期。但在未来几十年,人工智能和机器学习技术将不断改进提高,通常是以我们无法预计的方式。诚然,这些技术也会带来风险,例如编造真假难辨的谎言、骗局和制造假冒商品。但就像活字印刷术、无线电和互联网一样,人工智能系统也能生成逼真的内容,为我们的生活带来各种便利和卓越体验。人工智能无罪,有罪的是那些抱着邪恶用心的家伙。
编辑:Cortana图片:来源自网络
本文为未来图灵(futureturing)独家文章,转载请申请授权并注明来源。
转载、合作事宜,请联系:
微信:zhuzhichao8818
邮箱:weilaituling@caishimv.com