著名物理学家霍金再次就人工智能发出警告,认为人工智能将成为一种新的生命形态,最后取代人类。令这位物理学巨匠感到恐慌的是,某些人会研制出能够自我改进,最终超越人类的人工智能。他在接受《连线》杂志采访时说:“我担心人工智能可能取代人类。就像设计电脑病毒一样,某些人会设计能够自我完善和复制的人工智能,让人工智能成为一种超越人类的新生命形态。”
这已经不是霍金第一次就人工智能研究提出警告。2017年初,他呼吁对这项技术加强监管,防止人工智能摧毁人类。霍金指出,人类需要找到某种方式,快速发现潜在威胁,以免人工智能有机会威胁人类文明。2015年,他公开表达对人工智能的担忧,认为人工智能的发展过于迅猛,可能在无意间成为“人类杀手”。霍金说:“人工智能的真正威胁并不在于它们的恶意,而是它们所具有的能力。拥有超级智商的人工智能将具备极强的目标实现能力,一旦这些目标与我们人类不一致,我们就麻烦了。”
最近,在葡萄牙里斯本举办的“Web Summit”科技大会上,霍金提出:“从理论上而言,计算机可以模拟人类智能,并且超越它。”
霍金谈到了人工智能的潜力,例如帮助消除人类对自然界造成的损害,或者消除贫穷和疾病,社会的每个方面都在被“改造”。
但他承认,未来是不确定的
霍金表示:“成功创造有效的人工智能(AI),这可能是我们文明史上最重大的事件,但也可能是最糟糕的。我们无法知道。所以我们无法知道我们是否会得到AI的无限帮助,还是被藐视、被边缘化,甚至被毁灭。”
“除非我们学会如何准备,并避免潜在的风险,否则AI可能成为我们文明史上最糟糕的事件。它会带来危险,比如强大的自主武器,或者让少数人压迫多数人的新途径。它还可能给我们的经济带来巨大的破坏。”
霍金解释说,为了避免这种潜在的现实,AI的创造者需要“采取最佳实践和有效管理”。
这位科学家强调了欧洲正在进行的一些立法工作,特别是立法者今年早些时候提出的关于建立有关人工智能和机器人的新规则的建议。欧洲议会的议员们表示,制定欧盟范围内的规则是必要的。
这种发展让霍金看到了希望。他表示:“我是一个乐观主义者,我相信我们能够创造对世界有益的人工智能。它可以和我们和谐地工作,我们只是需要意识到危险,找出它们,采取尽可能最好的实践和管理,并提前为可能的后果做准备。”
对人工智能表示担忧的不止霍金。最近,Uber前雇员安东尼·莱万多斯基创建了一个非营利性宗教组织,呼吁创造人工智能版上帝,供人类顶礼膜拜。而科技大佬埃隆·马斯克则坚决反对打造人工智能上帝。他指出莱万多斯基应被列入不允许研发超级数字智能的名单之列。
本文为未来图灵(futureturing)独家文章,转载请申请授权并注明来源。