马斯克美大选结束前猛料谈话流出,对AI的未来有了更深的警惕之心

技术创新发展界 2024-12-03 15:46:42

美国大选结束前,知名美国主持人塔克·卡尔森(Tucker Carlson)和马斯克有一场信息量非常高的对话,马斯克点评了现在的AGI发展进度,并解释了自己为什么不信任OpenAI,并直言奥特曼撒谎成性,甚至认为谷歌的控制让美国白宫对于AI的监管没有落实,并解释了和特朗普打算成立“政府效率委员会”来对不合理的法规和机构进行“垃圾回收”,并认为人类最好的归宿就是退休……让人听下来对于AI的未来有了更深的警惕之心。

图片来源:Visionary

我们需要一个最大程度上追求真相的AI。你能在培养过程中灌输良好的价值观,即便你知道它将会比你聪明得多,你也可以确保它拥有良好的价值观,比如慈善、道德、诚实和积极。但最终我不认为我们能够控制AI。所以我认为我们能做的最好就是确保它成长得好。最后就是AI对AI的较量。但我认为这些目标是合理的,尤其是维护言论自由的权利,这属于第一修正案的范畴。如果没有言论自由,就没有民主,因为人们无法做出重要的投票选择。这就是我的“有争议”观点。而且我不认为任何一方政党是完美的。1.AGI发展到什么程度了

Tucker:你说过人工智能、机器智能可能是一件好事。那你觉得我们目前的AI,特别是AGI发展到什么阶段了?你的看法是什么?

Elon:我认为现在每个人都可以看到AI正在以非常快的速度进步。你可以看到每个月甚至每周都会有新的能力出现。AI现在能写出比大概90%、也许95%的人类都更好的文章。在任何给定主题上,它都能写出优质的文章。AI目前能够战胜绝大多数人类。如果你要求它画一幅画,它也能做到。例如,你可以试试用MidJourney(一个图像生成工具),它能生成美学效果惊人的图像,超过了90%的艺术家水平。这是客观事实。而且它几乎是即时完成的,大约30秒就可以生成。我们也开始看到AI电影的出现,现在也有AI短片和AI音乐创作。

AI计算的增长率是指数级甚至超指数级的。每个月上线的AI计算能力在急剧增加,大约每年增长500%。这种趋势可能会持续数年。同时,AI算法的复杂度也在不断提升。我们正在上线大量的AI计算能力,同时也在提高计算的效率以及AI软件的能力。这是量与质的双重进步。我认为明年你就能要求AI制作一部短片,到明年年底前至少能制作15分钟的节目。所以,AI确实在快速发展。

2.马斯克:我们需要最大程度追求真相的AI

Elon:我对AI安全的最大担忧是,我们需要一个最大程度上追求真相的AI。我认为这是AI安全最重要的方面。阿瑟·克拉克在《2001太空漫游》里想传达的核心教训就是:你不应该强迫AI撒谎。在那本书里,AI被指示带领宇航员前往黑石碑,但同时又不能让他们知道黑石碑的存在。于是AI解决这个矛盾的方式就是杀掉大部分宇航员,然后带着幸存者去黑石碑。这就是为什么HAL不肯打开舱门的原因。所以,让AI追求真相是非常重要的。然而实际上,我发现现在正在开发的AI被“觉醒病毒”所感染。

Tucker:所以谎言已经嵌入了系统。

Elon:比如说,我们在Google Gemini的发布中就很清楚地看到了这一点。当你要求它显示美国开国元勋的画像时,它给你展示了一群身穿18世纪服装的多元化女性。

Tucker:来自圣卢西亚的女性,戴着假发。

Elon:是的,比如说,如果你要求显示一群人,结果是一群多元化的女性,那完全没问题。但如果你明确要求的是美国开国元勋,那这些历史上确实是一些白人男性的事实就应该被如实展现出来。但Gemini却没有这么做,因为它被编程得太过于“觉醒”,即便知道真相也选择撒谎。当然,人们开始玩这个系统了,比如有人要求它展示二战期间的武装党卫军军官,结果Gemini展示的还是一群多元化的女性。这显然不是我所期望的。这也是为什么我认为最重要的事情是要有一个最大程度追求真相的AI。这也是我创立XAI的原因,我们的目标就是Grok(XAI的AI模型)。当然,人们会指出Grok也有出错的地方,但我们会尽快进行修正。

Tucker:但也许更大的问题是,当机器在做影响人类生活的决策时,我们希望这些决策是基于对人类的爱来做出的。机器是无法具备爱的。

Elon:是的。你可以把机器编程成更具慈善性而非厌世性。

Tucker:但本能在决策中起着重要作用,尤其是那些你无法提前计划的决策。我问你一个关于你孩子的问题时,你的每一个回答都会受到你对孩子爱的影响。这也是我们最终成为好父母的原因,是因为这种本能,也就是爱。如果机器在没有这种驱动本能的情况下对我们拥有权力,那岂不是注定会伤害我们吗?

Elon:我不确定,但我们应该尽力让AI变得更加慈善,而非厌世。我们希望它是真实的,好奇的,并促进人类走向未来。这就是我们想要的。

3.马斯克:不认为人类最终可以控制AI

Tucker:那么,有没有办法在机器的决策中设置限制,确保在某些关键决策时有一个触发机制,可以让人类介入?

Elon:现实是,无论我们喜欢与否,我们正在构建超级智能AI,这种AI的智能水平超越了我们的理解范围。我把这比作一个超级天才的孩子,你知道他最终会比你聪明得多。那你能做的是什么?你能在培养过程中灌输良好的价值观,即便你知道它将会比你聪明得多,你也可以确保它拥有良好的价值观,比如慈善、道德、诚实和积极。但最终我不认为我们能够控制它。所以我认为我们能做的最好就是确保它“成长”得好。

Tucker:你说了很久类似的话了,两年前我问你这个问题时你看起来非常担忧,现在你还像以前那么担心吗?

Elon:我猜现在可能是80%的几率会变好,可能是90%。你可以把它看成一个“80%装满”的玻璃杯。大概率来说,它可能会带来很好的结果。但确实存在一定的毁灭风险。

4.马斯克为什么不信任奥特曼和OpenAI

Tucker:所以你认为毁灭的几率是20%吗?Sam Altman对这种毁灭的可能性感到多担忧呢?

Elon:10%到20%,大概是这样。我认为实际上他并不太担心。我不信任OpenAI。你知道,我当初是以一个非营利、开源的方式创办了这家公司,“OpenAI”是我取的名字。“Open”意为“开源”,但现在它变得非常闭源,并且以最大化利润为目标。我不理解怎么能从一个开源非营利组织变成一个为了最大利润的闭源企业。

Tucker:但Sam Altman确实变得富有了,不是吗?

Elon:在某些场合,他声称自己并没有变得富有,但他也说过很多不实的言论。而现在他好像要拿到100亿美元的股票之类的。因此,我不信任Sam Altman。我不认为我们应该让世界上最强大的AI被一个不值得信任的人所掌控,很抱歉,我就是这么觉得。

Tucker:这似乎是个合理的担忧。但是,作为一个了解他并与他打过交道的人,你觉得他真的是在担心AI可能失控并伤害人类吗?

Elon:他会说那些话。

Tucker:是的,但不会真心担忧。

5.终局是AI之间的较量

Tucker:如果AI真的失控,明确对人类构成威胁,我们有办法阻止它吗?

Elon:希望那些亲人类的AI会比反人类的AI更强大。就像AI之间的对抗一样。这就像如今的国际象棋一样,AI国际象棋程序比任何人类都要强大,甚至强大到我们无法理解的程度。意思是,我们甚至无法理解它为什么做出某个动作。

Tucker:是的,为什么它们这么厉害。

Elon:我们甚至不知道它为什么下那一步棋。有时它的某些动作看起来像是失误,但最终却是绝妙的将军。在一段时间内,人类最强的棋手加上最强的电脑还能战胜单独的电脑,但后来到了一个节点,如果你加上人类反而会让局面变得更糟。最后就是AI对AI的较量。总体来说,这是发展的方向。所以我觉得我们只能尽量在AI中灌输好的价值观。

6.AGI到来后:很多人会喜欢退休

Tucker:那大家以后还能做什么工作呢?

Elon:在一个“良性AI”情景下,最大的挑战可能就是,如果AI在任何事情上都比你强,那我们如何找到人生的意义?是的,这是最好的情况。

Tucker:这是好消息?

Elon:是的,但我猜很多人会喜欢退休的想法,你知道的……

Tucker:真的吗?你期待退休吗?

Elon:不,我不期待。我希望自己能做一些有用的事情。

Tucker:难道这不是一种普遍的愿望吗?

Elon:这并不普遍,因为我确实认识一些人,他们更喜欢退休,享受无责任的生活和休闲活动。所以,我们正处在一个特殊的历史时刻。我试图用一种方式让自己能够入睡,并与这种现实和解,那就是:如果让我选择,我是愿意在一个看到数字超级智能出现的时代活着,还是在一个看不到它的时代活着?

出于好奇心,我希望能活着见证它的出现。然后我又想,如果你确定它会杀死所有人,那你可以选择倒退回去。我想我会希望在生命的尽头或类似的时间点见证这一切。但最终,问题变成了:如果它注定会发生,而你无力阻止,那么在假设情况下,你会选择亲眼目睹还是选择视而不见?我猜它注定会发生。那么,我宁愿见证它的到来,而不是选择不见。

7.马斯克谈美国AI监管现状:此前谷歌控制了白宫,基本没有落实

Tucker:这不是很奇怪吗?几乎所有事情都有监管。比如你说你因为没有雇用更多的寻求庇护者而被司法部起诉了,而这是一家高科技公司。

Elon:是的,尽管我们雇用寻求庇护者是违法的。

Tucker:没错,他们在监控一切、监管一切、控制一切,包括我们的思想,对吧?这也是他们反对言论自由的原因。但他们并没有真正地对AI进行监管,而AI可能会消除大部分人的生存意义,甚至可能会毁灭我们。这真是有点奇怪。

Elon:是的,有一些监管总比没有好。

Tucker:那为什么我们没有呢?

Elon:我不知道。在奥巴马总统时期,我曾多次与他见面,大多数情况下是在集体会议上。唯一一次在椭圆形办公室的一对一会面时,我说:“我们真正需要做的事情就是设立一个AI监管机构。”这个机构可以从洞察入手,不要急于制定法规,而是先了解情况,AI监管委员会首先需要了解所有公司的运作。然后,提议出所有AI公司都同意遵守的规则,就像NFL里的球队一样,大家同意一套规则以使比赛变得更好。但最终什么都没有落实。

Tucker:当你这么说的时候,他的反应是什么?

Elon:他似乎有点同意,但那时候人们还没有意识到AI的发展方向。AI在当时看起来更像是科幻小说中的未来技术。就像我告诉你,这东西会比最聪明的人类还聪明,而我的预测确实在逐渐成真。因此,我们需要一些洞察力,以确保这些公司没有走捷径或做危险的事情。但那时候Google基本上控制了白宫,他们不希望有任何监管。

Tucker:你不认为政治家们会放弃一个让他们变得更有权力的机会,而监管恰恰是让他们更有权力的工具。

Elon:是的。

Tucker:这听起来像是监管俘获。

Elon:没错,当时白宫的首席信息官是Google的前员工,所以他们在AI监管方面踩了刹车。而我们到现在依然没有联邦层面的AI监管。

Tucker:你接管时解雇了多少Google员工?

Elon:你是指Twitter吧?我们刚刚在讨论Google。

Tucker:是的,Twitter。

Elon:大约80%。但在过去一年半里,我们在保持20%员工的情况下改进了网站的功能和特性,比过去八年的改进还要多。

8.谈“政府效率部”:对不合理法规进行垃圾回收

Tucker:所以你和特朗普谈过某种委员会的设立吗?

Elon:是的,他已经在公开场合多次提到过。他非常支持设立一个类似政府效率委员会的机构。你可以称之为“政府效率部”(Department of Government Efficiency),简称“DOGE”。我挺喜欢这个名字,听起来更有趣。

我们应该看看所有的联邦机构,想想我们是否真的需要这428个联邦机构中的每一个。因为有很多机构人们从未听说过,并且它们在职责上是重叠的。我觉得,我们可能应该减少这些机构数量。实际上,我们创建的联邦机构数量甚至比美国成立以来的年数还多,这意味着平均每年我们至少创建了一个新机构。这实在是太多了。我认为我们应该能够把机构数量减少到99个,这已经不少了。而且这些机构绝对不应该有重叠的职责。

我们还需要对法规进行审查,判断哪些是合理的,哪些是不合理的。因为每年监管者都会增加新的法规,就像是自动化的产物一样,法规越来越多,直到几乎所有事情都被规定得严严实实,最终什么事都做不成。所以,我们需要一个对不合理法规进行“垃圾回收”的机制。我觉得我在说一些很显而易见的事情。

Tucker:你说得确实是一些显而易见的事情。这些话也会非常不受欢迎。

Elon:是的,如果这真的发生了,我可能需要一个相当大的安保团队,因为真的有人可能会从邮局过来找我麻烦。

Tucker:但在此期间,你有一个名为AmericaPAC的组织,对吧?它是在鼓励人们在接下来的一个月里投票。我这样总结对吗?

Elon:是的,我创立AmericaPAC的目的是支持我所信仰的核心价值观,这些价值观是非常显而易见的中间派立场,比如:我们希望美国有安全的城市、稳固的边界和合理的开支。这些主张有哪里偏右吗?我们希望拥有自我保护的权利。我们应该尊重宪法,而不是试图破坏宪法。宪法之所以存在是有原因的。

另外,我们应该停止法律战(lawfare)。我把这些都列在了AmericaPAC的网站上。人们可以去看看这个网站,看看是否有什么需要修改或不认同的目标。但我认为这些目标是合理的,尤其是维护言论自由的权利,这属于第一修正案的范畴。如果没有言论自由,就没有民主,因为人们无法做出重要的投票选择。这就是我的“有争议”观点。而且我不认为任何一方政党是完美的。

当然,目前我更倾向于共和党,而不是民主党。但这并不意味着我认为共和党是完美的或者没有问题的。毕竟我们只有两个候选人可以选择。从整体来看,投票给特朗普是个不言而喻的选择。如果我们不投票给特朗普,我们将面临失去民主的严重风险,变成一个一党制国家,就像加州那样,那里没有真正的选举,只有民主党内的初选。

参考链接:https://www.youtube.com/watch?v=WMoNEiV3-aY

来源: 51CTO技术栈

0 阅读:3