人人都在期待着人工智能(AI)造福世界,但同时我们也决不能忽视其潜在危害,用于欺诈,甚至伪造元首讲话,进而操控世界。或许,2017年就是风暴来临前的平静,一种令人担忧的平静。
眼见为实?AI伪装元首不在话下
过去几年,研究人员一再用事实证明,人工智能可用于伪造政要录像,造假者想让政要说什么,就让他们说什么。现在,科学家正在讨论对策。
举个例子,12月5日早上,一段简短的视频亮相GMIC+悉尼移动互联网大会。视频中,奥巴马和特朗普用中文讨论人工智能(AI)。当然,他们并不是真的会说中文,而是视频中采用了个性化语音合成技术,演示他们如果能够讲一口流利的中文,会是怎样一种效果。而模拟世界领导人的声音特征,包括音色和语调,更是不在话下。
此外,人工智能还能诱骗自动驾驶汽车,让它们对禁止通行标志视而不见,进而威胁交通安全。庆幸的是,在人工智能研究领域,还没有人胆敢将这项技术用于险恶目的。
为了有效应对这种潜在威胁,数百名人工智能研究人员于12月8日齐聚神经信息处理大会(NIPS)——人工智能领域规模最大且最具影响力的会议——讨论人工智能沦为欺诈工具的可能性,同时商讨对策。在NIPS大会一场有关机器欺诈的研讨会上,与会者将目光聚焦以下四个话题:
合成媒体,利用人工智能伪造他人的视频或者音频。
愚弄机器,让它们看到实际上并不存在的东西。
欺诈性代理,利用人工智能机器人散播假情报、进行欺骗性宣传。
政策和道德,如何建议监管部门和掀起道德讨论,推进此方面研究。
研讨会组织者、人工智能伦理与治理基金(由LinkedIn联合创始人雷德·霍夫曼创立)负责人蒂姆·黄表示,在2016年研究计划Face2Face证明人工智能能够逼真模仿特朗普和普京等政要之后,他意识到需要对这一领域投以更多关注目光。
分辨真伪,AI更可能被恶意使用
“这一研究发现让我感到非常吃惊,同时也引发了我的思考……这种技术何时会被人利用,又会带来怎样的影响,尤其是在机器学习的数据输入耗时不断缩短的情况下。”蒂姆表示,学术界和业内揭示了人工智能被用于各种险恶用途的可能性,但在现实世界,我们几乎没有听到人工智能作恶的新闻。
绝大多数经过数字处理的图像都出自人类之手,也就是那些熟练使用Photoshop等软件的修图高手。但蒂姆认为随着人为伪造假信息和假新闻的讨论兴起,一场有关如何遏制人工智能驱动下的虚假信息的大讨论也将随之浮出水面。
如果造假者利用人工智能这件强大武器,我们能否准确分辨真假?媒体内容的技术认证是否是一项极为有必要的举措,不然我们如何能相信网上的信息?
研究人员将现代人工智能与1900年代初的名马 “聪明汉斯”相比较。汉斯号称会算术,一度引发轰动。表演时,训练员让它解答简单的算术题,例如2加2等于几,汉斯会用敲蹄子的方式,给出正确答案。
没过多久,真相就浮出水面。汉斯根本不会算术,但会从训练者的脸上寻找暗示,知道何时停止敲击,然后获得奖励。换句话说,汉斯虽然能够给出正确答案,但根本不知道算术是怎么回事。
避免欺诈,精度与安全需要共同考量
随着现代人工智能系统开始为更多服务提供强大支持,例如恶意软件检测和自动保险报价,一些人开始质疑这种系统是否拥有足够的辨别能力,以避免欺诈。
研讨会组织者布赖斯·古德曼表示:“人工智能系统经过训练,具备人类智商的某些特征,但在信息处理方面,二者存在根本性差异。我们希望揭示黑客攻击的可能性并将其公之于众。”
古德曼指出为了提高效率和精确度,科技企业利用它们的先进旗舰算法完成关键任务,例如在社交媒体平台识别违规图像。但这种算法在优化时往往只追求精确度,而忽视其它因素,例如提高安全性,以避免遭黑客入侵。
很多科技企业通过开源许可证,在线公布它们的代码。这意味着任何人都可以修改算法和再利用。如果系统的安全性并未经过严格测试,安全隐患便会进一步加剧。
古德曼表示:“开源让人们取得巨大进步,但也让人们面临一大挑战。这些网络存在容易被利用的缺陷。”
古德曼指出制定指标以衡量算法能够在多大程度上抵御恶意攻击,有助于人工智能工程师在编写算法时重视安全问题,但目前尚没有制定这样的指标。他希望此次研讨会的发言者和组织者——包括谷歌的伊恩·古德费洛,机器学习安全领域的开拓者——有能力推动这一进程,将制定指标作为优先事项,提高代理服务器的安全性。
古德曼说:“他们是深度学习领域的领导者。我认为这个话题引发了强烈共鸣。我们要做的是进一步洞察算法的工作机制,从整体上完善算法。通过剥丝抽茧,层层分析,我们能够进一步了解和改进算法,而不是把它们捧上天,而后眼睁睁看着它们跌落神台。”
编辑:Cortana
图片:来源自网络
本文为未来图灵(futureturing)独家文章,转载请申请授权并注明来源。