美国国务院委托撰写的一份新报告描绘了一幅令人震惊的画面,描绘了快速发展的人工智能带来的灾难性国家安全风险,并警告说,联邦政府避免灾难的时间已经不多了。
调查结果基于一年多来对200多人的采访,其中包括领先人工智能公司的高管、网络安全研究人员、大规模杀伤性武器专家和政府内部的国家安全官员。
这份由Gladstone AI本周发布的报告直截了当地指出,在最坏的情况下,最先进的人工智能系统可能对人类物种构成灭绝级别的威胁。
美国国务院的一名官员向美国有线电视新闻网证实,该机构委托撰写这份报告,因为它不断评估人工智能如何与其保护美国在国内外利益的目标保持一致。然而,这位官员强调,该报告并不代表美国政府的观点。
报告中的警告再次提醒我们,尽管人工智能的潜力继续吸引投资者和公众,但也存在真正的危险。
“人工智能已经是一种经济变革性技术。它可以让我们治愈疾病,做出科学发现,并克服我们曾经认为无法克服的挑战,“Gladstone AI首席执行官兼联合创始人Jeremie Harris周二告诉CNN。
“但它也可能带来我们需要注意的严重风险,包括灾难性风险,”哈里斯说,越来越多的证据——包括发表在世界顶级人工智能会议上的实证研究和分析——表明,超过一定的能力阈值,人工智能可能会变得无法控制。
白宫发言人罗宾·帕特森(Robyn Patterson)表示,乔·拜登总统关于人工智能的行政命令是世界上任何政府为抓住承诺和管理人工智能风险而采取的最重要行动。
“总统和副总统将继续与我们的国际伙伴合作,并敦促国会通过两党立法,以管理与这些新兴技术相关的风险,”帕特森说。
《时代》周刊首先报道了格莱斯顿人工智能报告的消息。
研究人员警告说,人工智能广泛存在两个核心危险。
首先,格莱斯顿人工智能公司表示,最先进的人工智能系统可以被武器化,以造成潜在的不可逆转的损害。其次,该报告称,人工智能实验室内部存在私人担忧,即在某个时候,他们可能会失去对他们正在开发的系统的控制,从而对全球安全造成潜在的毁灭性后果。
报告称,人工智能和AGI(通用人工智能)的兴起有可能破坏全球安全的稳定,让人想起核武器的引入,存在人工智能军备竞赛、冲突和大规模杀伤性武器致命事故的风险。
Gladstone AI的报告呼吁采取旨在应对这一威胁的重大新措施,包括成立一个新的人工智能机构,实施“紧急”监管保障措施,并限制可用于训练人工智能模型的计算机能力。
“美国政府显然迫切需要进行干预,”作者在报告中写道。
格莱斯顿人工智能高管哈里斯表示,他的团队对公共和私营部门官员的“前所未有的访问水平”导致了惊人的结论。Gladstone AI表示,它与ChatGPT所有者OpenAI、Google DeepMind、Facebook母公司Meta和Anthropic的技术和领导团队进行了交谈。
“一路走来,我们学到了一些发人深省的东西,”哈里斯在Gladstone AI网站上发布的一段视频中说,在幕后,相对于人工智能可能很快带来的国家安全风险,先进人工智能的安全状况似乎相当不足。
Gladstone AI的报告称,竞争压力正在推动公司以牺牲安全和安保为代价加速人工智能的发展,这增加了最先进的人工智能系统可能被“窃取”和“武器化”以对抗美国的可能性。
这些结论增加了越来越多的关于人工智能带来的生存风险的警告——甚至包括来自业内一些最有权势的人物。
大约一年前,被称为人工智能教父的杰弗里·辛顿(Geoffrey Hinton)辞去了在谷歌的工作,并揭开了他帮助开发的技术。Hinton曾表示,在未来三十年内,人工智能有10%的可能性导致人类灭绝。
去年6月,Hinton和其他数十位人工智能行业领袖、学者和其他人签署了一份声明,称减轻人工智能灭绝的风险应该是全球优先事项。
商界领袖越来越担心这些危险——尽管他们投入了数十亿美元来投资人工智能。去年,在去年耶鲁大学CEO峰会上接受调查的CEO中,有42%的人表示,人工智能有可能在五到十年后摧毁人类。
在其报告中,Gladstone AI指出了一些知名人士,他们警告过AI带来的生存风险,包括埃隆·马斯克(Elon Musk),联邦贸易委员会主席莉娜·汗(Lina Khan)和OpenAI的前高管。
据Gladstone AI称,人工智能公司的一些员工私下里也有类似的担忧。
“一个知名人工智能实验室的人士表示,如果一个特定的下一代人工智能模型作为开放获取发布,那将是非常糟糕的,”报告说,因为该模型的潜在说服能力可能会破坏民主,如果它们在选举干预或选民操纵等领域被利用。
格莱斯顿表示,它要求前沿实验室的人工智能专家私下分享他们对人工智能事件可能在2024年导致全球和不可逆转的影响。根据该报告,估计值在4%到高达20%之间,这些估计值不是非正式的,可能会受到重大偏见的影响。
最大的通配符之一是人工智能的发展速度——特别是AGI,这是一种假设的人工智能形式,具有类似人类甚至超人的学习能力。
该报告称,AGI被视为失控带来灾难性风险的主要驱动因素,并指出OpenAI、谷歌、DeepMind、Anthropic和英伟达都公开表示,AGI可能在2028年之前实现,尽管其他人认为它离我们更远。
Gladstone AI指出,在AGI时间表上的分歧使得制定政策和保障措施变得困难,如果该技术的发展速度慢于预期,监管可能会被证明是有害的。
Gladstone AI发布的一份相关文件警告说,AGI的发展和接近AGI的能力将带来美国从未面临过的灾难性风险,如果它们被武器化,相当于类似大规模杀伤性武器的风险。
例如,该报告称,人工智能系统可用于设计和实施能够削弱关键基础设施的高影响力网络攻击。
报告称,一个简单的口头或类型命令,如执行无法追踪的网络攻击,使北美电网崩溃,可能会产生如此高质量的响应,以证明具有灾难性的效果。
作者关注的其他例子包括由人工智能驱动的大规模虚假信息活动,这些活动破坏了社会稳定并侵蚀了对机构的信任;武器化的机器人应用,如无人机游泳攻击;心理操纵;武器化的生物和材料科学;以及无法控制且对人类具有敌意的寻求权力的人工智能系统。
“研究人员希望足够先进的人工智能系统能够采取行动,以防止自己被关闭,”报告说,因为如果人工智能系统被关闭,它就无法实现其目标。