马斯克又发AI威胁论,超级“杀人机器”是科幻还是现实?

未来图灵 2017-08-23 21:11:11

硅谷巨头马斯克就一直对人工智能的扩散忧心忡忡,认为其是人类文明面临的最大威胁,上周更是带领一百多名专家签署了一份反对AI自主型武器的公开信。电影中对人类大开杀戒的“终结者”,有可能成为现实吗?

最近,借着国际人工智能联合会议(IJCAI)开幕的东风,特斯拉CEO埃隆·马斯克和DeepMind联合创始人穆斯塔法·苏里曼等来自26个国家的116位人工智能专家联合签署了一份公开信,呼吁联合国禁止自主武器的开发,即所谓的“杀手机器人”(Killer Bot)。在公开信中,他们表示这一技术将迎来继火药和核武器之后的“第三次战争革命”,呼吁将“不道德”的自主武器加入到联合国1983年生效的常规武器公约(CCW)所禁止的武器清单中。

“致命的自主武器一旦得到开发,将以人类无法理解的速度带来前所未有的大规模武装冲突。它们可能成为独裁者和恐怖分子对无辜人民使用的武器,或者成为黑客各种不良行径的工具。”

此前曾有专家警告:自主操纵的武器不是天方夜谭,在几年之内就可以开展应用。虽然人工智能自主武器可以减少战场伤亡,更准确地区分平民和战斗人员。但专家担心自动化操作的进攻性武器会降低冲突发生的门槛,导致这种武器的部署频率更高,从而导致更多的人员伤亡。

电影《机械战警》里的“杀手机器人”

悉尼新南威尔士大学科学家人工智能教授托比·沃尔什表示:“几乎所有的技术都可以用于不同的方向,人工智能没有什么不同。它可以帮助解决当今社会面临的许多紧迫问题:不平等与贫困,气候变化带来的挑战和持续的全球金融危机。但是同样的技术也可用于自主武器战争,我们需要为自己期望的未来做出选择。”

自主武器:潘多拉的魔盒?

这不是IJCAI第一次成为专家热论自主武器系统的平台。两年前的会议上,包括马斯克和霍金及数千名人工智能研究人员联合签名的公开信就呼吁联合国制定关于自主武器的禁令。英国政府后来反驳了这一公开信,表示“国际人道主义法已经为这一领域提供了充分的监管”,英国武装部队的所有武器都“受到人为的监督和控制”。

虽然杀手机器人是从科幻小说中得到的灵感(如《终结者》的T-800或《机械战警》里的ED-209),但致命的自主武器已经开展了应用,如三星代表韩国政府开发的SGR-A1哨戒机枪,具有自主系统,可以用机枪或榴弹发射器进行监视、语音识别、跟踪和射击(技术上能够在没有人为干预的情况下识别和射击目标,但目前必须得到人类操纵者授权)。俄罗斯、美国和其他国家也正在开发可以远程控制或自主操作的机器人坦克。

三星SGR-A1哨戒机枪

在这个时候,似乎没有一个国家愿意放缓这种武器的发展,美国国防部报告就曾敦促增加自主武器技术的投入,使美国在这一领域“保持领先”。这种军备竞赛的心态正是人工智能和机器人专家想要避免的情况:“我们没有时间了,这个潘多拉的盒子一旦打开就很难关闭。”

人工智能会有意识吗?

作为这次公开信的倡导者,马斯克曾多次表达对人工智能的警惕,称之为人类文明的最大威胁。甚至他创立SpaceX、梦想未来能够建立“星际殖民地”的一大原因,就是在人工智能叛变人类的时候,能够给人类一个落脚地。在对“监管”这个词极度敏感的硅谷,马斯克却建议建立对于人工智能的监管机构,其忧虑可见一斑。

不过在这一话题上,Facebook创始人马克·扎克伯格的观点与马斯克截然不同。最近,Facebook人工智能实验室让两个AI通过对话训练来学习人类的交流方式,后来却出现了研究人员无法理解的语言对话,最终这个AI系统被关停。一时间,“人工智能发明独特语言,突破人类控制”的AI阴谋论甚嚣尘上,官方人员的澄清被淹没在传言的汪洋大海里。

科幻作家丹尼尔·杰弗里斯表示,科幻电影里的情节让人们在接触到人工智能时“自然而然地带入,不合实际地紧张”,从而使一个程序出错的新闻被不断包装后仍然在各种信息流上上演新版本。他认为,当前的深度学习系统可以让AI通过对自己的规则进行梳理来识别声音或者图片,但它仍不属于“意识”的范畴,通过改变深度学习系统的数据而误导AI是非常容易的。比如下图,在一张熊猫的照片上加入噪点,就会被识别成长臂猿。

这些小把戏瞒不过任何正常人类的眼睛,却能糊弄最先进的人工智能。机器学习和深度学习系统具有零推理或道德指南,除了其背后的人类外,其代表不了任何“意识”。

人工智能将导致失业?

二位大佬上月还进行了隔空论战,马斯克称人工智能将给人类文明带来风险,扎克伯格反驳称这样的说法“非常不负责任”,马斯克则回复“扎克伯格对这个问题的理解十分有限”。

这一交锋引起了科技界的又一轮探讨,其中的焦点在于:随着人工智能的发展,一个“无用阶级”将会出现——即那些不仅失业,而且无法就业的人。如果过去一个世纪的科技进步真的导致了“无用阶级”的出现,那将是文明的悲剧。

的确,科技对就业市场会产生巨大冲击。1900年,美国超过40%的人口从事农业工作,但到2000年这一比例下降到2%,这要归功于农业机器带来的效率。同样,自动驾驶汽车技术可能最终会使数百万卡车司机、出租车司机和其他驾驶职业过时,现在从事这些工作的人需要寻找新的饭碗。

另一方面,技术进步整体上会带来工作岗位的净增加。自ATM机问世以来,美国银行出纳员的数量增加了一倍。尽管农业机械摧毁了农业就业市场,但整个20世纪,美国劳动力总体呈稳步增长态势。到目前为止的每一个重大转变,都会使工作机会变得更多。

因此,科技行业有义务塑造人工智能和机器人的未来,以帮助创造更好、更有生产力的工作,利用人工智能来确保机会在全国和世界各地更公平地分布。已经有技术人员开始以不同的方式思考他们对人类的义务,并据此设计他们的产品。当涉及到肮脏、危险和有损人格的工作时,自动化可以提高人的尊严乃至拯救生命。种种迹象表明,人工智能的“第四次工业革命”将会如前三次那样增加GDP和整体生产率,也可能增加工作的灵活性和地域多样性。

“恶魔”还是“天使”?

马斯克曾将人工智能的发展比作“召唤恶魔”,他担心人工智能会以指数形式发展,在不断学习中变得更好,由此产生的“情报爆炸”将使人工智能处于优势地位。布朗大学计算机科学教授麦克·利特曼表示,马斯克的对比大大高估了情报爆炸的可能性。他的主要错误在于从最近的机器学习的成功中(如AlphaGo)推断出最终的智力发展,但是机器学习并不像表面看起来那么危险。

首先,研究者决定想要解决什么问题,为系统本身设定任务,表达这一段代码的形式被称为目标函数。然后,再收集了数百万个他们想要他们的系统展示的行为例子。最后设计人工智能系统的结构,并通过人类的洞察力和强大的优化算法来优化目标函数。

在这个过程的最后,研究者得到了一个通常可以表现出超人表现的系统,但性能是在一开始被选中的特定任务上。如果希望系统做其他事情,就可能需要从头开始整个过程。此外,生活的“任务”没有明确的目标函数,目前的方法也不适合创建一个广泛全能的智能机器。

如果有一天,人类真的面临超级人工智能的“屠杀”,与人工智能“合体”或许是一条出路。值得注意的是,马斯克创立了一家名为Neuralink的公司,正在努力开发一种可注射的“神经蕾丝”技术,能将人类大脑连接至云端的知识数据库。是不是心动了?如果马斯克的监管机构妨碍了马斯克的公司为我们带来的美好未来,那将是一个天大的遗憾。

0 阅读:0