受人脑启发:中国科学家开发新型AI架构

曦照认知 2024-09-08 13:20:36

在追求人工通用智能(AGI)的征途上,中国科学家们开发了一种新型计算架构,这种架构在训练先进的人工智能(AI)模型时消耗的计算资源更少,并且有望引领我们走向AGI的未来。

目前最先进的AI模型,如大型语言模型(LLMs),使用神经网络来处理数据,这些网络的工作原理类似于人脑,通过权衡不同选项来得出结论。然而,这些模型因为不能超越其训练数据的限制,并且缺乏人类的推理能力而受到限制。

人工通用智能是一个假设性的系统,能够推理、理解上下文、编辑自己的代码,并理解或学习人类能够完成的任何智力任务。目前,创建更智能的AI系统依赖于构建更大的神经网络,一些科学家认为,如果这些网络足够大,就可能实现AGI。但这种做法可能不切实际,因为随着网络规模的扩大,能源消耗和对计算资源的需求也会随之增加。

为了解决这个问题,研究人员在《自然计算科学》杂志上发表的一项新研究中提出了一种受人脑启发的新型计算架构。这种架构专注于“内部复杂性”而不是“外部复杂性”,即通过使单个人工神经元更加复杂,来构建更有效、更强大的系统。

研究人员构建了一个霍奇金-赫胥黎(HH)网络,每个人工神经元都是一个能够扩展内部复杂性的HH模型。HH模型是一种计算模型,能够模拟神经活动,并在捕捉神经元尖峰方面显示出最高的准确性。在这项研究中,科学家们展示了这种模型能够高效、可靠地处理复杂任务,并且基于这种架构的小型模型可以像大型传统人工神经元模型一样表现良好。

0 阅读:0