日前,前OpenAI首席科学家IlyaSutskever闪现NeurIPS

我为科技狂鸭 2024-12-15 10:51:51

日前,前OpenAI首席科学家Ilya Sutskever 闪现 NeurIPS  2024十几分钟的领奖演讲很精彩,他的核心观点按时序整理如下:   回顾十年前工作(2014年)   - 他们的工作核心是三个要素:自回归模型、大型神经网络和大规模数据集; - 提出了Deep Load Hypothesis(深度负载假说) - 认为如果一个有 10 层的神经网络,就能完成人类在一瞬间能做到的任何事情; - 当时选择 10 层是因为那时只能训练 10 层的网络; - 真正相信了如果训练好自回归神经网络,就能获得想要的序列分布;   技术的演进   - 这十年从 LSTM(被描述为“90度旋转的 ResNet”)发展到了 Transformer; - 提出了Scaling hypothesis(扩展假说) - 如果有足够大的数据集和神经网络,成功是必然的; - 强调了Connectionism(连接主义)的重要性 - 人工神经元和生物神经元的相似性,让我们相信大型神经网络可以完成人类的很多任务;   预训练时代及其局限   - GPT-2、GPT-3等预训练模型推动了领域进展; - 预训练时代终将结束,因为数据增长有限:“我们只有一个互联网”; - Ilya 将数据比作"AI的化石燃料" - 这是有限资源;   未来展望   - Agent(智能代理)可能是未来方向之一; - 合成数据的重要性在上升; - 推理时计算(如O1模型)展现出了潜力; - 借鉴生物学启示,人类祖先(如早期智人等)的脑容量与体重的比例关系有着不同的斜率,这意味着在进化过程中,确实可能出现与之前完全不同的发展路径,我们目前在 AI 领域看到的扩展方式可能只是我们发现的第一种扩展方式;   超级智能的特点   - 未来AI系统将具有真正的代理性(Agentic); - 将具备推理能力,但推理越多越不可预测; - 能够从有限数据中理解事物; - 将具备自我意识(如果意识有必要的话就让它有吧); - 这些特性结合后会产生与现有系统完全不同的质的飞跃;   在问答环节也讨论了生物启发和幻觉问题:   - 从抽象层面看,生物启发的AI某种程度上是非常成功的(如学习机制),但生物启发仅限于很基础的层面(让我们使用神经元),如果有人发现大家都忽略了大脑中的某些重要机制,应该去研究,也许会有新的突破;   - 认为未来具有推理能力的模型可能能够自我纠正幻觉问题;

0 阅读:46