哈佛大学教授
人工智能具有巨大潜力,可以向善,也可以作恶。人工智能的风险正日益增长,值得更多关注。
人类是能够制造工具的物种,但是我们能控制自己制造的工具吗?20世纪40年代,罗伯特·奥本海默和其他物理学家开发出第一枚核裂变武器时,他们担心自己的发明可能毁灭人类。目前为止,这种情况还没有发生,但控制核武器一直是一项挑战。
如今,许多科学家将人工智能(能让机器执行人类智能才能完成的任务的算法和软件)视为同样具有变革意义的工具。与以前的通用技术一样,人工智能具有巨大潜力,可以向善,也可以作恶。在癌症研究领域,它几分钟内整理和总结出的研究成果,人类团队需要几个月时间才能完成。此外,它能可靠地预测蛋白质折叠模式,而研究人员需要多年才能发现。
但是,对于与社会格格不入的人、恐怖分子和其他希望造成破坏的群体来说,人工智能降低了作恶成本和门槛。兰德公司最近一项研究里发出警告,“复活一种类似于天花的危险病毒,其边际成本可能只有10万美元,而开发一种相对应的复杂疫苗则可能需要超过10亿美元”。
▲美军在人工智能基地测试无人机。此外,一些专家担心,高级人工智能将比人类更加聪明,甚至能控制人类,而不是人类控制它。开发这种超级智能机器(称为通用人工智能)需要多长时间?各界的预测从几年到几十年不等。但无论如何,人工智能的风险正日益增长,值得更多关注。
40年来,阿斯彭战略小组(由前政府官员、学者、商界人士和记者组成)每年夏天都举行会议,讨论一项重大的国家安全问题。以往的会议主题包括核武器、网络攻击和中国崛起等问题。今年,我们重点关注人工智能对国家安全的影响,探讨其益处和风险。
人工智能的益处,包括能够更好地整理大量情报数据、加强预警系统、改进复杂的后勤系统,以及检查计算机代码,从而提高网络安全。但也存在巨大风险,例如自动武器的进步、编程算法意外出错,以及出现可能削弱网络安全的对抗性人工智能。
中国一直在投入大量资金用于人工智能军备竞赛,并且拥有一些结构性优势。人工智能的三大关键资源是训练模型的数据、开发算法的优秀工程师,以及运行算法的计算能力。中国在数据访问方面几乎没有法律或隐私限制(尽管意识形态限制了一些数据集),而且拥有大量优秀的年轻工程师。中国落后于美国的领域,是为人工智能提供计算能力的先进芯片。
▲2024年5月14日,中美人工智能政府间对话首次会议在瑞士日内瓦举行。美国的出口管制使得中国难以获得这些高级芯片和制造这些芯片的昂贵的荷兰光刻机。阿斯彭小组的专家一致认为,在人工智能领域,中国落后美国一两年,但情况仍然不稳定。去年秋天会晤时,中美领导人同意就人工智能举行双边会谈,而阿斯彭小组对人工智能军备控制的前景并不乐观。
自动武器构成了特别严重的威胁。经过联合国十多年的外交努力,各国仍未能就禁止致命自动武器达成一致意见。国际人道主义原则要求军队区分武装战斗人员和平民,五角大楼长期以来一直要求在武器发射前必须有人类参与决策,但某些情况下,例如防御来袭的导弹时,人类没有时间进行干预。
由于背景很重要,人类必须严格界定(在代码中)武器能做什么和不能做什么。换句话说,人类不能仅是参与决策,更应该做好监管。这不仅仅是一个推测性的问题。乌克兰战争期间,俄罗斯干扰乌克兰军队的通讯信号,迫使乌克兰人对他们的设备进行编程,以便让这些设备自主做出何时开火的最终决策。
人工智能最可怕的危险之一,是将其用于生物战或者恐怖行动。1972年,各国同意禁止生物武器。当时人们普遍认为生物武器没有用处,因为它存在“反噬”的风险。但是随着合成生物学的出现,有可能开发出只消灭一类人群而不影响另一人群的武器。或者,拥有实验室的恐怖分子可能只是想杀死尽可能多的人,就像1995年日本的末日邪教奥姆真理教一样——他们使用了不会传染的沙林毒气,但如今的坏人可以使用人工智能创造传染性病毒。
在核技术方面,各国于1968年达成了一项核不扩散条约,目前该条约已有191个成员国。国际原子能机构定期检查各国的核能源计划,以确保这些计划仅用于和平目的。尽管冷战时期竞争激烈,但核技术领域的领先国家在1978年同意对最敏感设施和技术的出口采取限制措施。这样的先例为人工智能发展指明了一些路径,尽管这两种技术之间存在明显差异。
不言而喻的是,技术的发展速度远远超过了政策或者外交,尤其是考虑到私营部门激烈的市场竞争产生的推动作用。如果今年的阿斯彭战略小组会议得出一项重要结论,那就是政府需要加快步伐。