尽管有恐惧,大国仍急于在人工智能军备竞赛中让杀手机器人上战场

友琴评军事 2023-07-15 00:14:00

近80年前,当第一颗原子弹投在广岛时,战争的面貌发生了变化。随着技术的进步,一个新的玩家正在等待以人工智能的形式进入战场,全球各地的军队现在都在竞相让人工智能武器投入战斗。

根据一部探索人工智能在战场上的未来的新纪录片,随着世界各地的军队竞相开发可怕的人工智能武器,一场秘密的军备竞赛正在进行中。

新的纪录片《杀手机器人》于7月10日在Netflix上首映。导演杰西·斯威斯特:“美国军方人士表示,俄罗斯和中国的世界领导人,无论谁在人工智能上获得优势,谁将在战争中拥有压倒性的技术优势。”

他说:“这场革命现在正在发生,但我认为我们的意识落后了。希望它不会让我们意识到,'哦,伙计,这是一个相当有效的工具'。”

纪录片显示,在战斗中使用武器级机器人和无人机并不是一个新现象。然而,人工智能软件是并且正在增强现有的硬件,在十年的大部分时间里,这些硬件一直在使战争技术现代化。

专家们现在警告说,人工智能的发展将我们推向了全球力量别无选择,只能彻底改革和重新思考其军事战略的地步。

Shield AI的首席技术官Nathan Mchiael在节目中说,预计人工智能将驾驶F-16,而且不会那么远,这是现实的。该公司正在执行一项任务,希望他们能够“打造世界上最好的人工智能飞行员”。

但新纪录片中的电影制片人表达了他们对机器人快速军事化的担忧,许多从事人工智能工作的人也一样。它们本质上呼应了该领域许多技术专家的声音——我们并不真正理解我们正在创造的东西。

Jesse解释说,这些算法处理信息的方式,对它们进行编程的人甚至无法完全理解他们正在做出的决定。“它移动得如此之快,以至于甚至识别诸如'它应该杀死那个人还是不杀死那个人'之类的东西。这是这个巨大的难题。”

人们非常相信人工智能武器的准确性和精度,这种感觉因为它是技术性的,它将消除人为错误,并更加可靠。然而,人们担心,如果出现生死攸关的技术失败的情况,对这种准确性的舒适依赖,即所谓的自动化偏差,可能会重新咬牙关。

在交火期间用于增强无人机自主机器人的人工智能面部识别软件也是一个主要问题。随着技术的发展,控制装置后面仍然有一个人来扣动扳机。然而,杰西警告说,如果技术发展到人们感到足够舒服的水平,可以消除这一额外的决策层,武装分子可能会被机器误认为是平民或盟友。

他说,人工智能比非白人更擅长识别白人。因此,它很容易将棕色皮肤的人误认为对方,当你在战斗区时,你正在识别朋友或敌人,这会产生各种可怕的后果。

然后是我们曾经只在动作电影方面想到的场景——机器人攻击我们。根据Jesse的说法,这对于人工智能来说非常可能,因为这种想法已经造成了“军队内部的紧张”。

他解释说,人们担心人工智能的网络安全,以及外国政府或独立行为者接管军队关键要素的能力。“我认为还没有明确的答案。但我认为每个人都知道,进入军事的自动化越多,坏演员利用的空间就越大。”

最可怕的部分呢?“坏人”需要是80年代电影中的科技天才,就能突破如此巨大的突破。杰西说:“过去,你必须是一个计算机天才才能做到这一点。就像80年代的电影一样,这个家伙必须是某种神童。

但现在你可能有点像一个B级学生,他下载了网络教程视频,该视频将向您展示如何做后面的事情。

我们也不得不担心人工智能武器的不仅仅是炸弹、枪支和流氓机器人士兵。事实证明,人工智能在推进医疗和制药技术来治疗和治疗疾病方面是无价的,但代码的简单更改可能会看到数千个模拟运行,最终产生一种有毒成分——一种化学武器。

Collaborations Pharmaceuticals的首席执行官Sean Ekins博士在纪录片中讲述了他在2021年的经历。瑞士人工智能监督小组要求他试验设计生物武器的可能性。

Ekins博士:“我们一直在构建许多机器学习模型,试图预测一个分子是否可能有毒。我们只是翻转那个模型,然后说“好吧,我们对设计有毒分子感兴趣”。

从字面上看,我们确实在其中一个型号上打开了开关,一夜之间,它产生了化学武器分子......一家小公司,在2015年的老式台式机上就可以这样做。

创建的模型中有一些类似于VX的模型,VX是世界上最致命的已知神经毒剂之一。Ekins博士补充说:“我们使用生成技术来做到这一点,但它们是相当简陋的生成工具。

现在,近两年后,我认为与今天的可能性相比,我们所做的是一种婴儿步骤。

Ekins博士担心,只有“一个流氓科学家”,甚至可能不太合格的人,就有可能创造VX和其他生物武器的自制变体,因为人工智能正在“降低技术屏障”。

Ekins博士解释说,我认为非常真正的危险是想出新的分子,这些分子不是VX,更容易合成。“这真的值得担心。我们展示的是,我们很容易想出许多-数以万计-被预测为毒性更强的分子。”

Ekins博士和他的团队发表了一篇关于灾难性滥用可能性的论文,为建立复杂的制衡敲响了警钟。然而,他们对科学界对呼吁充耳不闻。

他说,该行业没有做出回应。“没有推动建立任何保障措施。

“我认为没有意识到那里的潜在危险是愚蠢的......我只是认为,总的来说,这个行业并没有对此给予太多的考虑。”

就在近85年前科学家开发原子弹时,Ekins博士将机器学习在他的领域的快速加速与他们“不考虑后果”时的发展和进步进行了比较。

Ekins博士说,即使是我们称之为技术的教父,现在也只是意识到他们释放了一个潜在的精灵。我认为,把它放回瓶子里会非常困难。

0 阅读:16