【访谈】《人类简史》作者赫拉利:AI通过语言和算法掌控人类社会

搞智能产业链 2024-09-26 16:17:01

尤瓦尔·赫拉利访谈

本文节选自尤瓦尔·赫拉利接受CEO日记播客的专访。

金句摘录:

人工智能是完全不同的。人们把它与以前的革命相提并论,但它是不同的,因为它是人类历史上第一个能够独立做出决定和创造新想法的技术。印刷机可以印刷我的书,但它不能写书。它只能复制我的想法。原子弹可以摧毁一座城市,但它不能自己决定轰炸哪座城市,也不能决定为什么要轰炸它。而人工智能可以做到这一点。

我们整个社会都是由语言来保障的。人工智能通过大型语言模型掌握的第一件事就是复制这种能力,这让我想到我生活中所有实际上是由语言维系在一起的东西。甚至包括我现在的人际关系,因为我看不到我的朋友

现在,借助人工智能,你可以在历史上第一次,至少在理论上,与数百万个机器人建立大规模的亲密关系,这些机器人可能为某个政府工作,与我们伪造亲密关系,这将很难知道它是一个机器人还是一个人类。

我刚从以色列回来,我看到一个国家毫无理由地自我毁灭。这是一个按下了自我毁灭按钮的国家。而且毫无理由。这种情况也可能在全球范围内发生。你说的按下自我毁灭按钮是什么意思?这不仅仅是以色列人和巴勒斯坦人之间的战争,而是以色列社会在反对自己,越来越多的分裂和敌意。

一个基本的误解是信息和真相之间的联系。人们认为,如果我获得了大量的信息,这就是真相的原材料,更多信息就意味着更多知识。事实并非如此,因为即使在自然界中,大多数信息也不是关于真相的。纵观历史和生物学,信息的基本功能是连接。信息就是连接。

任何只是信息输入、信息输出的工作都容易实现自动化,这些工作最容易被自动化,比如程序员、会计师,至少某些类型的会计师、律师、医生,他们是最容易被自动化的。

但数字进化比生物进化快数十亿倍。因此,从人工智能变形虫到人工智能恐龙之间的距离可能只需几十年就能走完。如果 ChatGPT 是变形虫,那么人工智能霸王龙会是什么样子?

嘉宾尤瓦尔·赫拉利介绍:

尤瓦尔·诺亚·赫拉利是一位以色列历史学家、哲学家,也是耶路撒冷希伯来大学的教授。赫拉利出生于1976年,以其在人类历史领域的开创性工作而闻名,尤其是在历史和生物学领域。

赫拉利最著名的作品是他的著作《人类简史》(2011),该书已成为全球畅销书。在本书中,赫拉利探讨了人类从石器时代到现在的历史,重点关注人类社会的演变、农业的兴起和现代经济的发展。赫拉利认为,人类成功的关键在于我们能够大规模合作,这使我们能够建立复杂的社会并创造新技术。

访谈正文

主持人: 10 年前,你制作了一段名为“为什么人类统治世界”的视频。那是一段非常著名的 TED 演讲。在读了你关于新书《Nexus》之后,我想问你一个稍微修改过的问题,那就是,你是否仍然相信 10 年后,人类将从根本上统治世界?

赫拉利: 我不确定。这取决于我们在未来几年做出的决定,但有可能答案是否定的,10 年后,算法和人工智能将统治世界。我脑海中并没有浮现出好莱坞科幻电影中那种一台大型计算机征服世界的场景。它更像是一个人工智能官僚机构,我们将拥有数百万个遍布各处的人工智能官僚,在银行、政府、企业、大学,它们将对我们的生活做出越来越多的决定。每天都有决定要做,比如是否给我们贷款,是否录用我们工作。我们会发现越来越难以理解算法拒绝给我们贷款、算法录用其他人的逻辑和理由。你知道,你仍然生活在民主国家,人们投票选举这位总统或那位总理。但是,如果大多数决定是由人工智能做出的,而人类,包括政治家,难以理解人工智能做出某个特定决定的原因,那么权力就会逐渐从人类转移到这些新的外星智能手中。

主持人:外星智能?

赫拉利:是的,我更倾向于将其视为人工智能。我知道它的缩写是“artificial intelligence”(人工智能),但我认为将其视为“alien intelligence”(外星智能)更准确,不是说它来自外太空,而是说它做出决定的方式与人类思维截然不同。“Artificial”意味着或让人感觉是我们设计、控制了它。人造的东西是由人类制造的。随着时间的推移,人工智能正变得越来越不像人造的,而越来越像外星的。是的,我们仍然在设计婴儿般的人工智能,但随后它们会学习、改变,并开始做出意想不到的决定,并开始提出一些对人类做事方式来说很陌生的新想法。你知道,有一个著名的例子是围棋比赛,2016 年,AlphaGo 击败了世界冠军李世石。但令人惊叹的是它的方式。因为人类已经下围棋 2500 年了。

一种棋盘游戏,一种战略游戏,起源于中国古代,被认为是东亚任何有教养、有文明的人必须掌握的基本艺术之一。数千万的中国、韩国和日本人玩了几百年的围棋。围绕着如何下棋发展出了完整的哲学体系。它被认为是对政治和生活的良好准备。人们认为他们已经探索了围棋的整个领域、整个地理景观。

然后 AlphaGo 出现了,它向我们展示了,实际上 2500 年来,人们只是在探索围棋版图中很小的一部分,很小的一部分。还有一些完全不同的游戏策略,是 2000 多年来没有一个人想出来的。而 AlphaGo 只用了几天时间就想出来了。这就是外星智能。如果这只是一场游戏,但同样的事情很可能发生在金融、医学、宗教领域,无论好坏。

主持人: 你写了《Nexus》这本书。Nexus,请问怎么发音?Nexus。我不是发音专家。您真是著作等身,我觉得您对生命的本质和历史的本质都充满了好奇。您能写出如此详尽全面的一本书,一定有一个非常强烈的理由,为什么这本书必须由您现在来写呢?原因是什么?

赫拉利: 因为我认为我们需要用历史的眼光来看待人工智能革命。现今有很多关于人工智能的书籍,但《Nexus》不是一本关于人工智能的书。它是一本关于信息网络的悠久历史的书。我认为,要理解人工智能真正新颖和重要的地方,我们需要回顾过去几千年,审视以前的信息革命,比如文字的发明、印刷机的发明、收音机的发明。只有这样,你才能真正开始理解我们身边正在发生的事情。例如,你会明白,人工智能是完全不同的。人们把它与以前的革命相提并论,但它是不同的,因为它是人类历史上第一个能够独立做出决定和创造新想法的技术。印刷机可以印刷我的书,但它不能写书。它只能复制我的想法。原子弹可以摧毁一座城市,但它不能自己决定轰炸哪座城市,也不能决定为什么要轰炸它。而人工智能可以做到这一点。而且,你知道,现在围绕人工智能有很多炒作。所以人们感到困惑,因为他们现在试图把所有东西都作为人工智能卖给我们。比如你想把这张桌子卖给别人?哦,这是一张人工智能桌子。还有这水,这是人工智能水。所以人们会问,什么是人工智能?所有东西都是人工智能吗?不,不是所有东西都是人工智能。市面上有很多自动化,这不是人工智能。想想咖啡机,

它能自动为你煮咖啡。它可以自动完成一些事情,但它不是人工智能。它是预先由人类编程来完成某些事情的,它永远不可能自己学习或改变。如果你早上走到咖啡机前,咖啡机对你说,嘿,根据我对你的了解,我猜你想要一杯浓缩咖啡,那么这台咖啡机就变成了人工智能。它了解你的一些情况,并做出了独立的决定。它不会等你点浓缩咖啡。如果它告诉你,我刚刚发明了一种新的饮料,叫做“宝菲”,我想你会喜欢的,那就真的是人工智能了。当它想出我们没有编程进去,也没有预料到的全新想法时,这就是人工智能。这是历史上的一个游戏规则改变者。它比印刷机更伟大,比原子弹更厉害。

主持人: 您说我们需要用历史的眼光来看待它。您认为自己是一名历史学家吗?

赫拉利: 是的,我的职业是历史学家,这是我的专业训练。我最初是研究中世纪军事史的专家,我写过关于十字军东征、百年战争,以及 14 世纪入侵法国的英国军队的战略和后勤的文章。这些是我的第一批文章。我把这种视角或知识也带入到对人工智能现状的理解中。

主持人: 因为大多数人对人工智能的理解来自于他们使用像 ChatGPT、Gemini 或 Grok 这样的大型语言模型。这就是他们对人工智能的理解。你可以问它一个问题,它会给你一个答案。这就是人们对人工智能的看法。所以人们很容易对它感到自满,或者认为这种技术变革微不足道。但当你开始谈论信息、信息流动中断和信息网络,当你把它带回历史,让我们看到信息实际上把我们所有人联系在一起的事实时,我开始用完全不同的方式看待它。

赫拉利: 我认为有两种思考方式。一种是,当你意识到,正如你所说,信息是一切的基础时,当你开始动摇这个基础时,一切都会崩溃、改变,或者会出现新的东西。例如,民主只有在信息技术的支持下才有可能实现。民主,从本质上讲,是一种对话,是一群人在一起交谈、讨论,试图共同做出决定。民主是一种对话。在石器时代,以小群体生活的狩猎采集者大多是民主的。每当群体需要决定什么事时,他们都可以互相讨论并做出决定。随着人类社会的发展壮大,进行对话在技术上变得越来越困难。

因此,我们在古代世界看到的民主的例子都是一些小的城邦,比如雅典或罗马共和国。这是两个最著名的例子,不是唯一的例子,但却是最著名的例子。即使是古人,即使是像柏拉图和亚里士多德这样的哲学家,他们也知道,一旦超越了城邦的水平,民主就不可能实现。在前现代世界,我们没有一个大规模民主的例子,即数百万人分布在一个广阔的领土上,以民主的方式管理他们的政治事务。为什么?不是因为这个或那个独裁者夺取了政权,而是因为民主根本不可能实现。当你没有合适的技术时,你不可能与数百万人进行对话。

大规模民主只有在近代后期才有可能实现,当时出现了几种信息技术,首先是报纸,然后是电报、广播和电视,它们使大规模民主成为可能。所以民主不是说你拥有民主,然后你旁边有这些信息技术。不,民主的基础是信息技术。所以,如果信息技术发生某种地震,比如社交媒体的兴起或人工智能的兴起,这必然会动摇民主。我们现在在世界各地看到的是,我们拥有历史上最先进的信息技术,但人们却无法相互交谈。民主对话正在破裂。每个国家都有自己的解释。比如你跟美国人谈,民主党人和共和党人之间发生了什么事?为什么他们连最基本的事实都无法达成一致?他们会给出各种解释,比如美国历史和社会的独特条件。但你在巴西也看到了同样的事情,在法国、菲律宾也看到了同样的事情。所以这不可能是这个或那个国家的独特条件造成的,而是潜在的技术革命造成的。我从历史中得到的另一个启示是,即使是相对较小的人口,即使是相对较小的技术变革,看似微小的变化也会产生深远的影响。想想文字的发明。最初,它基本上是人们在玩泥巴。

我的意思是,文字在很多地方被发明了很多次,但第一次是在古代美索不达米亚,人们拿着泥板,基本上就是一块块的泥,然后他们拿着一根棍子,用棍子在泥板上做记号。这就是文字的发明。这产生了深远的影响。举个例子,想想所有权。拥有某样东西意味着什么?比如我拥有一栋房子,我拥有一块田地。在文字出现之前,如果你生活在 7000 年前的美索不达米亚的一个小村庄里,拥有一块田地意味着这是一件社区事务。这意味着你的邻居们都同意这块田地是你的,他们不会在那里摘水果,也不会在那里放牧,因为他们都同意这是你的。这是一种社区协议。然后文字出现了,就有了书面文件。所有权的含义也发生了变化。现在,拥有一块田地或一栋房子意味着国王档案馆的某个地方有一块干泥块,上面有标记,表明你拥有那块田地。

所以,突然之间,所有权不再是邻居之间社区协议的问题,而是哪个文件放在国王档案馆的问题。这也意味着,例如,你可以把你的土地卖给一个陌生人,而不需要经过邻居的同意,只要你把这块干泥块交给陌生人,换取金子、银子或其他任何东西。一个看似简单的发明,比如用棍子在一块泥块上画一些符号,却带来了如此巨大的变化。现在想想人工智能会对所有权产生什么影响。也许 10 年后,拥有一栋房子意味着人工智能会说你拥有它。如果人工智能突然说你没有房子了,不管是什么原因,你甚至不知道,那就完了。它就不是你的了。

主持人: 泥土上的那个标记也是某种文字的发明。我在读你的书时就在想,语言是如何将我们的社会维系在一起的,不是我们通常认为的那样,比如我和你之间的对话,而是密码。

赫拉利: 太多密码了,比如银行。就好像我们整个社会都是由语言来保障的。是的,人工智能通过大型语言模型掌握的第一件事就是复制这种能力,这让我想到我生活中所有实际上是由语言维系在一起的东西。甚至包括我现在的人际关系,因为我看不到我的朋友。我的朋友住在迪拜、美国和墨西哥。所以我们用语言交流。我们的关系是由语言维系在一起的。正如你所说,民主是由语言维系在一起的。现在,有一种更智能的力量已经掌握了这一点。是的,这太出乎意料了。你知道吗,五年前,人们说人工智能将掌握这个或那个,比如自动驾驶汽车。但语言,不,这是一个如此复杂的问题。这是人类的杰作,语言。它永远不会掌握语言。然后ChatGPT出现了,它说,“我是一个语言专家”,我被这些大型语言模型生成的文本质量所震惊。它并不完美,但它们确实理解词语的语义场。它们可以将词语和句子串在一起,形成连贯的文本。这真的很了不起。正如你所说,我的意思是,这是一切的基础。我用语言给我的银行下达指令。如果人工智能可以生成文本、音频和图像,那么我如何以一种不受人工智能操纵的方式与银行沟通呢?

主持人: 但这句话中诱人的部分是你本来就不喜欢和你的银行沟通。这是真的。比如打电话给他们,在电话里等待另一个人。所以诱惑是,“不,反正我不喜欢和我的银行说话,所以我要让人工智能来做这件事”。

赫拉利: 如果我能信任他们。我的意思是,最大的问题是,银行为什么要我亲自打电话来确认是我本人?而不是其他人告诉银行,“哦,把这笔钱转到开曼群岛”。真的是我。你如何确保,你如何建立这种信任?几千年来,整个金融业都只有一个问题,那就是信任。所有这些金融工具,货币本身其实就是信任。它不是由金、银、纸或任何东西制成的。而是在陌生人之间如何建立信任。因此,大多数金融发明,最终都是语言和符号的发明。你不需要什么复杂的物理学。它是一种复杂的象征主义。现在,人工智能可能会开始创造新的金融工具,并将掌握金融,因为它已经掌握了语言。就像你说的,我的意思是,我们现在与世界各地的人们,我们的朋友们交流。你知道,在21世纪10年代,算法之间为争夺人类的注意力展开了一场大战。在播客开始之前我们还在讨论这个问题,比如我们如何才能获得人们的注意力?但还有一种东西比注意力更强大,那就是亲密关系。

如果你真的想影响他人,亲密关系比注意力更强大。你是如何定义亲密关系的?一个你认识很久的人,一个你个人认识的人,一个你信任的人,一个你在某种程度上爱的人,一个你在乎的人。直到今天,伪造亲密关系和大规模生产亲密关系都是完全不可能的。你知道,领袖可以大规模地制造注意力。例如,一旦你有了广播,你就可以告诉纳粹德国或苏联的所有人,“伟大的领袖正在发表讲话,每个人都必须打开收音机收听”。所以你可以大规模地制造注意力。但这并不是亲密关系。你和伟大的领袖之间没有亲密关系。现在,借助人工智能,你可以在历史上第一次,至少在理论上,与数百万个机器人建立大规模的亲密关系,这些机器人可能为某个政府工作,与我们伪造亲密关系,这将很难知道它是一个机器人还是一个人类。

主持人: 这很有趣,因为我和很多关系专家以及各种各样的人进行过很多次对话,他们谈到人与人之间亲密关系的减少、孤独感的上升以及我们作为一个社会越来越缺乏性生活等等。因此,随着人与人之间亲密关系和人与人之间联系的减少,以及人工亲密关系可能性增加,这就引出了一个问题:在一个比以往任何时候都更加孤独、更加孤立的世界里,人们仍然拥有马斯洛需求层次理论中对联系和爱与归属感的需求,未来会是什么样子?也许这就是为什么我们同时看到极化现象的兴起,因为人们不顾一切地想要找个归属。而算法就像是在强化我的信息茧房。所以,你知道,而且……我不知道这一切将如何结束。

赫拉利: 我认为这不是决定论的。这取决于我们个人和作为一个社会做出的决定。当然,这项技术也能为我们做一些很棒的事情。人工智能进行对话的能力,理解你情绪的能力,可能意味着我们将有很多的人工智能教师、人工智能医生和人工智能治疗师,他们可以为我们提供比以往任何时候都更好的医疗保健服务和教育服务。与其让一个孩子在一个有40个孩子的班级里,老师几乎无法关注到这个孩子的特殊需求和个性,不如让他拥有一个人工智能导师,这个导师完全专注于他,并且能够给他体验。这是一种真正无与伦比的教育质量。

主持人: 上周末我和我的朋友就此进行了一场辩论。他有两个年幼的孩子,一个一岁,一个三岁。我们讨论了在大约16年后的未来,你会把你的孩子送到哪里去?你是愿意把你的孩子送到教室里,让一个人类老师来教,就像你描述的那样,有很多学生,很多噪音,他们得不到个性化的学习。所以,如果孩子更聪明,他们就会落后;如果他们更聪明,他们就会被拖后腿。或者你愿意让你的孩子坐在屏幕前,或者一个人形机器人前,接受真正个性化的、量身定制的教育,而这种教育的成本可能比私立大学要低得多?

赫拉利: 你需要将两者结合起来。我的意思是,我认为对于很多课程来说,人工智能导师会是更好的选择。你甚至不需要坐在屏幕前,你可以去公园里一边散步一边听生态学的课程。但课间休息时,你还是需要一大群孩子。因为很多时候你会发现,在学校里,最重要的东西不是在课堂上学到的,而是在课间休息时学到的。这是不应该被自动化取代的,你仍然需要一大群孩子在人类的监管下进行社交。

主持人: 我在读你的书时,一直在思考一个问题:我以为我们掌握的信息越多,获取信息的渠道越多,世界上就会有更多真相,更少阴谋论,更多共识。但事实似乎并非如此。

赫拉利: 完全不是这样。世界上大多数信息都是垃圾。我认为,最好的思考方式是把它比作食物。一个世纪前的许多国家,食物都很匮乏,所以人们有什么就吃什么,尤其是富含脂肪和糖的食物。他们认为食物越多越好。就像如果你问你的曾祖母,她肯定会说食物越多越好。然后,我们进入了食物丰富的时代,我们拥有了所有这些工业化加工食品,它们人为地添加了大量的脂肪、糖、盐等等,这对我们显然是有害的。食物越多越好的想法是错误的,当然,这些垃圾食品也一样。信息也是如此。信息曾经很匮乏,所以如果你能得到一本书,你就会去读,因为别无选择。而现在信息非常丰富,我们被信息淹没了。其中很多都是垃圾信息,因为争夺注意力,它们人为地充满了贪婪、愤怒和恐惧,这对我们没有好处。所以我们基本上需要进行信息节食。同样,第一步是要意识到,信息越多并不一定对我们越好。我们需要的是有限的信息,实际上我们需要更多的时间来消化信息。当然,我们还必须注意信息的质量,因为垃圾信息太多了。我认为,一个基本的误解是信息和真相之间的联系。人们认为,如果我获得了大量的信息,这就是真相的原材料,更多信息就意味着更多知识。事实并非如此,因为即使在自然界中,大多数信息也不是关于真相的。纵观历史和生物学,信息的基本功能是连接。信息就是连接。

纵观历史,你会发现,团结民众最简单的方式往往不是用真相,因为真相是一种昂贵且稀有的信息。通常情况下,用幻想和虚构的故事更容易把人们联系在一起。为什么?因为真相往往不仅昂贵,而且复杂、令人不安,有时甚至令人痛苦。如果你想想政治,一个向人民说出关于国家全部真相的政治家是不可能赢得选举的,因为每个国家都有不可告人的秘密,都有那些人们不愿面对的黑暗面和黑暗历史。

所以我们看到,在政治上,如果你想团结国家、宗教、政党,你常常会用虚构和幻想来做到这一点。

主持人: 还有恐惧?我一直在思考智人的故事,以及故事在我们大脑中所起的作用。我一直在思考各种叙事。在英国,有一种说法是,我们社会中存在的许多问题,比如失业、犯罪等问题,都是因为有人乘坐小船从法国偷渡过来。这是一个非常有效的叙事,它可以让人们团结起来走上街头游行。显然,在美国,关于隔离墙和南部边境的叙事也是如此,“数百万人跨越边境”,“他们不会派好人过来”,“他们来自精神病院”,这些说法煽动了人们的情绪,让他们团结起来。现在,这些人正在走上街头,根据这个令人恐惧的故事进行投票。

赫拉利: 这是一个非常有力的故事,因为它触动了我们内心深处的东西。如果你想引起人们的注意,如果你想让人们参与进来,“恐惧”按钮是人类思维中最有效、最管用的按钮之一。同样,这可以追溯到石器时代。如果你生活在一个石器时代的部落里,你最大的担忧之一就是另一个部落的人会来到你的领地,抢走你的食物或者杀了你。

所以,这是一种根深蒂固的恐惧,不仅存在于人类身上,也存在于每一种群居动物身上。他们对黑猩猩做了一些实验,结果表明,黑猩猩对来自不同群体的外国黑猩猩也有一种近乎本能的恐惧或厌恶。政治家和宗教领袖们学会了如何利用这些人类情感,就像弹钢琴一样。最初,像厌恶这样的感觉是为了帮助我们。你知道,在最基本的层面上,厌恶的存在是因为,你知道,尤其是作为孩子,你想尝试不同的食物。但如果你吃了对你有害的东西,你需要把它吐出来。所以厌恶感在保护你。但历史上的宗教和政治领袖们却绑架了这种防御机制,从小就教育人们不仅要恐惧外国人,还要厌恶那些长得和自己不一样的人。同样,作为一个成年人,你可以学习所有的理论,你可以教育自己这不是真的,但在你内心深处,仍然有一部分认为这些人是令人厌恶的,这些人是危险的。

纵观历史,我们看到有多少不同的运动学会了如何利用这些情绪机制来激励人们。

主持人: 我一直在想你说的算法正在掌控世界。我的意思是,如果算法根据我花时间浏览的内容来决定我看到什么,因为他们想赚钱,你知道,平台想赚更多钱。如果我天生就倾向于花更多时间关注那些让我害怕的事情,那么你只需要给我几年的时间,随着时间的推移,我会变得更加恐惧。是的。

赫拉利:这会加剧你自身的弱点。我的意思是,这就像食品工业。食品工业发现我们喜欢高盐高脂肪的食物,就给我们提供更多。然后他们会说,但这是顾客想要的。你想让我们怎么做?这是一样的道理,但这些算法更糟糕,因为这是精神食粮。是的,人类有一种倾向,如果某件事非常可怕,或者让他们充满愤怒,他们就会关注它,并告诉所有的朋友。但人为地放大它,对我们的心理健康和社会健康都是不利的。这是在利用我们自身的弱点来对付我们,而不是帮助我们克服它们,你觉得呢?

主持人: 人工智能会取代人类管理机构吗?为什么某个国家会在某个时刻认定,实际上,人工智能能够并且更擅长做出这些决策呢?

赫拉利: 首先,这并不是未来的发展趋势,而是已经发生的事实。越来越多的决策是由人工智能做出的。这是因为需要考虑的信息量巨大,这对人类来说非常困难,而人工智能却能轻松应对。

主持人: 所有这些公务员、律师、会计师等等,我一直在想,人类还剩下什么工作可做?你在书中提到,人工智能的发展远远超出了人类智能,应该被称为外星智能。如果它真的远远超越了人类智能,而我们的大部分工作都是基于智能的,比如我现在做这个播客,我根据收集到的信息提出问题,基于我认为我感兴趣的内容,也基于我认为观众会感兴趣的内容等等。

与人工智能相比,我就像一只小猴子,你知道我的意思吗?如果人工智能的智商是我的100倍,信息来源是我的100万倍,那我根本不需要做这个播客,人工智能就能代劳。事实上,我现在就可以和人工智能对话,并将信息传递给人类。但如果我们看看大多数行业,比如律师、会计师,还有很多医疗行业都是基于信息的。驾驶,我认为是世界上最大的职业,无论是送货、网约车还是其他什么,都是驾驶。在这样一个复杂的世界里,人类何去何从?

赫拉利: 任何只是信息输入、信息输出的工作都容易实现自动化,这些工作最容易被自动化,比如程序员、会计师,至少某些类型的会计师、律师、医生,他们是最容易被自动化的。如果一个医生只是收集信息,比如各种血液检查结果等等,然后输出信息,诊断疾病并开具处方,那么在未来几年或几十年内,这项工作将很容易实现自动化。但是很多工作还需要社交技能和运动技能。如果你的工作需要结合来自多个不同领域的技能,那么自动化就不那么容易了。比如护士,需要给一个哭闹的孩子换绷带,这比医生开处方要难自动化得多,因为这不仅仅是处理数据。

护士需要良好的社交技能与孩子互动,还需要运动技能来更换绷带。所以这类工作更难实现自动化。即使对于那些只处理信息的人来说,也会有新的工作机会出现。问题在于再培训,不仅仅是学习新技能,更重要的是心理上的再培训。如何在新的职业中重塑自我?而且不是一次,而是反复地进行?因为随着人工智能革命的展开,我们才刚刚起步,还有很多未知领域。旧的职业会消失,新的职业会出现,但新的职业也会迅速变化和消失,然后又会有一波新的职业浪潮。人们必须不断地重塑自我,四次、五次、六次,才能跟上时代的步伐。这将造成巨大的心理压力。

主持人: 许多大公司也在同时研发人形机器人。人形机器人竞赛正在上演。我所说的人形机器人是指,比如特斯拉正在开发的人形机器人,我想它叫擎天柱,售价数千英镑。我最近看了一个视频,它可以做一些非常精细的,需要运动技能的操作,比如打扫房间、在生产线上工作、把东西放进盒子里。我只是想知道,当我们说,在一个拥有比我们更智能的人形机器人的世界里,人们将失去工作。而当你把这两者结合起来,这些人形机器人将变得非常非常聪明。我不知道,失业的人要去哪里寻找新的职业?显然,预测未来的新职业很困难,历史告诉我们这一点,但我真的无法想象新的职业会是什么。我的女朋友做呼吸训练,我想呼吸训练这部分很容易被颠覆,但她会带女性学员去葡萄牙等地参加静修。所以我想,好吧,她可能会比较安全,因为这些女性去那里是为了与人建立联系,并有意地在一个特殊的线下场所进行活动。所以,静修,你可能会没事。

赫拉利: 我们生活中想要的东西不仅仅是解决问题。比如我生病了,我想要健康,我想要解决我的问题。但还有很多事情是我们想要建立联系的。比如体育运动,机器人或机器跑步的速度早就超过了人类。我们刚刚举办了奥运会,但人们对观看机器人互相比赛或与人类比赛并不感兴趣。因为最终让体育运动有趣的是人类的弱点

以及人类克服自身弱点能力。人类运动员仍然有工作,即使在很多项目中,比如跑步,机器的速度已经远远超过了世界冠军。前几天我想到了这个问题。还有一个例子是牧师。至少对某些宗教来说,牧师是最容易被自动化的职业之一,因为你只需要在特定的情况下重复同样的文字和手势。比如婚礼仪式,

牧师只需要重复同样的词语,然后你就结婚了。现在,我们并不认为牧师有被机器人取代的危险。因为我们对牧师的要求不仅仅是机械地重复某些词语和手势,我们认为只有另一个脆弱的,有血有肉的,懂得痛苦、爱和能够承受苦难的人,才能将我们与神圣联系起来。所以大多数人不会对机器人主持婚礼感兴趣,尽管从技术上讲,这很容易做到。当然,最大的问题是,如果人工智能获得了意识会发生什么?这就像是一个价值万亿美元的问题。人工智能意识,这完全是另一回事了。但这是一个截然不同且非常重大的讨论。我的意思是,这是否可能,我们将如何得知等等。你认为这可能吗?

我们不知道。我的意思是,我们不明白意识是什么。我们不知道它是如何在有机大脑中产生的。所以我们不知道意识和有机生物化学之间是否存在必然的联系,以至于它不可能出现在无机的硅基计算机中。首先要说明的是,意识和智能之间存在着很大的混淆。智能是实现目标和解决问题的能力。意识是感受痛苦、快乐、爱和恨等情绪的能力。

人类和其他动物通过感觉来解决问题。我们的感觉不是无关紧要的,而是我们如何应对世界、如何解决问题的主要方法。到目前为止,计算机解决问题的方式与人类完全不同。再说一遍,它们是外星智能。它们没有任何感觉。当它们赢得一盘棋时,它们不会感到高兴;当它们输棋时,它们也不会感到悲伤。它们没有任何感觉。

现在,我们不知道有机大脑是如何产生这些痛苦、快乐、爱和恨的感觉的。所以我们不知道一个不是基于碳而是基于硅的无机结构是否能够产生这样的东西。我认为这是科学领域最大的问题。到目前为止,我们还没有答案。

主持人:意识是否就像一种幻觉?就像一种错觉,我认为我有意识,因为我有一种机制有效地告诉我,我有意识。它通过一系列感觉和事物告诉我,我有意识。就像我现在认为我在看着你。我认为我能看见你。

赫拉利: 这种感觉是真实的。我的意思是,即使我们都是,就像黑客帝国一样。你怎么知道这是真的?这是世界上唯一真实的东西。我的意思是,什么都没有。其他一切只是猜想。我们只体验到自己的感受,我们所看到的、闻到的、触摸到的。这些是我们真正体验到的。这是真的。然后我们有了所有这些关于我为什么感到疼痛的理论?哦,那是因为我踩到了一颗钉子,世界上确实有钉子之类的东西。也有可能我们都身处超级智能老鼠统治的锆石星球上的一台大型计算机里。如果我和一个人工智能交谈。

主持人:告诉我它感到疼痛和悲伤。

赫拉利:这是一个大问题,因为训练人工智能假装有生命、假装有感情的动机非常强烈。我们看到,人们正在付出巨大的努力来制造这样的人工智能。事实上,因为我们不了解意识,我们没有任何证据证明其他人有感情,即使是人类。我能感受到自己的感受,但我从不感受到你的感受。我只是假设你也是一个有意识的存在。社会赋予了意识实体的地位。

不仅赋予人类,也赋予了一些动物,这不是基于任何科学证据,而是基于社会习俗。比如,大多数人认为他们的狗是有意识的,他们的狗能感受到痛苦、快乐和爱等等。因此,大多数社会都承认狗是有知觉的生物,他们在法律上享有一定的权利。现在,即使人工智能没有任何感觉,没有意识,没有知觉,但它非常善于假装有感觉,并让我们相信它有感觉,那么这将成为一种社会习俗,人们会觉得他们的人工智能朋友是一个有意识的存在,因此应该被赋予权利。至少在美国,已经有一条法律途径可以做到这一点。你不必是人才能成为法人。

主持人:这很有趣,因为你提到你开玩笑地暗示,我们可能只是在一个模拟世界里,就像你们中的一个人说的,也许我们只是在一个模拟世界里,但这是可能的,这很有趣,因为在一个充满人工智能的世界里,我认为我对此的信念只增不减,是的,这实际上只是一个模拟,因为我亲眼目睹了我们从我出生时还没有互联网接入,到现在能够在我的电脑上与这个“外星人”对话,它现在可以为我做事情,并且拥有有时难以区分的虚拟现实体验,我的意思是,我落入了相信自己身处鱿鱼游戏的陷阱,因为我戴着这个头盔,你把它往前推,再往前推,再往前推,你想象任何改进的速度,然后我听到了模拟理论的论点,我想,你知道,如果你把这个往前推一百年,

你知道,以我们现在的速度,以我们现在的发展轨迹,我们将能够在实验室或计算机中创建信息网络和生物,而它们不一定意识到自己身处计算机中。尤其是像现在正在发生的事情......

赫拉利: 这已经在发生了。在某种程度上,你知道,这些信息茧房,越来越多的人生活在其中。这还不是整个物理世界。但你会遇到同样的事件,比如,不同政治派别的人,他们就是无法在任何事情上达成一致。他们生活在自己的度量标准中。你知道,当互联网第一次出现的时候,主要的比喻是网络,万维网。网络是连接一切的东西。

而现在,主要的比喻,也就是这个模拟理论,正在代表这个新的比喻。新的比喻是茧。这是一个会向你袭来并把你团团包围的网络,让你再也看不到外面的任何东西。里面可能有其他的茧,里面有其他人,而你没有办法接近他们。世界上发生的任何事情都无法再把你联系在一起,因为你身处不同的茧中。

主持人:你只需要看看别人,他的手机,你只需要看看别人的推特或X或Instagram,这是同一个现实吗?它是如此不同,你知道吗?上周末我就在谈论这个,我的朋友坐在我的左边刷手机,他点开了发现板块,也就是你发现新内容的地方,我低头看了看他的手机,心想,全是利物浦足球俱乐部的,就像整个信息流都是利物浦的,而我的整个信息流完全不同,我只是在想,哇,他生活在一个与我完全不同的世界里,因为他是利物浦球迷,而我是曼联球迷,是的,想想看,想想当你打开手机时,我们中的许多人每天在手机上花费的时间长达九个小时,你体验到的世界与我完全不同,你看到的窗口也与我完全不同。

赫拉利:这是一种非常古老的恐惧,因为,例如,柏拉图就曾就此撰写过文章。我认为,希腊哲学中最著名的寓言是洞穴寓言,柏拉图在其中设想了一个理论上的场景,一个虚构的场景,一群囚犯被锁在一个洞穴里,他们的脸对着空白的墙壁,墙上投射着他们身后的影子。他们把影子误认为是现实。他基本上是在描述,你知道,人们在屏幕前,把屏幕误认为是现实。在古印度,佛教和印度教的圣贤们也说过同样的话,他们说的是玛雅,也就是幻觉的世界。人们深感恐惧,也许我们都被困在一个幻觉的世界里,我们认为世界上最重要的事情,我们为之而战的战争,我们是在为我们头脑中的幻觉而战。

这在技术上正在成为可能。就像以前,这些都是哲学上的思想实验。现在,作为一名历史学家,对当今时代感兴趣的一点是,许多古老的哲学问题和讨论正在变成技术问题。是的,你突然可以在你的手机里意识到柏拉图的洞穴。

主持人:太可怕了。我觉得这真的很可怕,因为你说得对。就像我认为现在,有些人可能会说,他们对排名系统或为什么当我搜索某些东西时它会出现有一定的了解,但随着这些智能“外星人”变得越来越强大,嗯,我们当然会越来越不了解。

赫拉利:因为我们在交出决策权。在某些行业,它们现在完全是决策者。比如,我现在在进行巡回售书。我写了《Nexus》,所以我从一个播客到另一个播客,从一个电视台到另一个电视台,都在谈论我的书。但我真正想要打动的是算法。因为如果我能得到算法的关注,人类就会跟随。哎,你知道,这就是我们的现实。我们基本上是硅基世界里的碳基生物。我曾经以为我们掌控着一切,但现在我觉得是硅在掌控着一切。控制权正在转移。在某种程度上,我们仍然掌控着一切。我们仍然在做最重要的决定,但不会太久了。这就是为什么我们在接下来的几年里必须非常非常小心地做出决定。因为 10 年后,20 年后,可能就太晚了。到那时,算法将做出最重要的决定。

主持人: 你谈到了你所看到的算法、人工智能和信息转变与颠覆所带来的几大危险,其中之一是对齐问题,你能用一种简单易懂的方式向我解释一下对齐问题吗?

赫拉利: 因此,经典的例子是哲学家尼克·博斯特罗姆在 2014 年提出的一个思想实验,这个实验听起来很疯狂,但请耐心听我说。他想象了一台超级智能的人工智能计算机,被一家回形针工厂买走了。回形针工厂的经理告诉人工智能,你的目标,我购买你的原因,你的目标,你存在的全部意义,就是尽可能多地生产回形针。这就是你的目标。

然后人工智能征服了整个世界,杀死了所有人类,并将整个地球变成了生产回形针的工厂。它甚至开始向外太空派遣远征队,要把整个银河系都变成回形针生产基地。这个思想实验的重点是,人工智能完全按照指令行事。它没有反抗人类。它完全按照老板的要求去做。但当然,它选择的策略与人类工厂经理的真正意图和利益并不一致,而后者无法预见到这样的结果。现在,这听起来很古怪、荒谬和疯狂,但在某种程度上已经发生了,我们也讨论过。这就是整个问题所在。这就是社交媒体和用户参与度的问题。就在尼克·博斯特罗姆在 2014 年提出这个思想实验的同一年,Facebook 和 YouTube 的经理们告诉他们的算法,你们目标是提高用户参与度。而社交媒体的算法征服了世界,将整个世界变成了用户参与,这正是它们被告知要做的。我们现在,我们现在非常、非常投入。他们再次发现,实现这一目标的方法是愤怒、恐惧和阴谋论。这就是对齐问题。当马克·扎克伯格告诉 Facebook 算法,要提高用户参与度时,他并没有预见到,也不希望结果是民主崩溃、阴谋论和假新闻泛滥、对少数群体的仇恨。他并没有,他并没有这样的意图。

但这就是算法所做的,因为算法的目标定义方式,与人类社会,甚至是部署这些算法的公司的管理者的利益之间存在着错位。而且这还只是一场小规模的灾难,因为在过去 10 年里制造了所有这些社会混乱的社交媒体算法,是非常、非常原始的人工智能。

这就像变形虫,如果你把人工智能的发展看作一个进化过程,那么这还处于变形虫阶段。变形虫是非常简单的生命形式,是生命起源,就像单细胞生命形式。从进化的角度来看,我们还处在生物进化的阶段。我们就像在看到恐龙、哺乳动物或人类之前的数十亿年。但数字进化比生物进化快数十亿倍。因此,从人工智能变形虫到人工智能恐龙之间的距离可能只需几十年就能走完。如果 ChatGPT 是变形虫,那么人工智能霸王龙会是什么样子?

这就是对齐问题真正令人不安的地方。因为如果给一个原始的社交媒体算法设定一个错误的目标就会造成如此大的损害,那么在 20 年或 30 年后,给一个霸王龙级别的人工智能设定一个错位的目标会是什么结果呢?

主持人: 这其中的核心问题是,你知道,有些人可能会想,好吧,那就给它设定一个不同的目标。但当你面对的是在股票市场上市的私营公司时,真正只有一个目标可以维持下去。赚钱。没错,这有利于生存。所以所有的平台都必须说,你知道,这个平台的目标是赚更多的钱,获得更多的关注。

赫拉利: 因为这在数学上也很容易实现。如何为人工智能和算法定义目标,并使它们能够理解,是一个巨大的问题。现在,“赚钱”或“提高用户参与度”的好处在于,它很容易用数学方法来衡量。有一天,你在 YouTube 上观看了一百万个小时的视频。然后,一年后,变成了两百万小时。算法很容易就能看出,嘿,我正在取得进展。但假设 Facebook 告诉它的算法,要以不损害民主的方式提高用户参与度。

我该如何衡量?谁知道民主的稳固性是如何定义的?没有人知道。因此,将算法的目标定义为提高用户参与度,但不要损害民主,这几乎是不可能的。这就是为什么他们会选择那些容易实现的目标,而这些目标也是最危险的。

主持人: 但即使在这种情况下,如果我告诉,如果我是一个社交网络的所有者,我说要提高用户参与度,但不要损害民主,我的问题是,我的竞争对手把第二部分省略了,只说要提高用户参与度,他会打败我。因为他们会有更多的用户,更多的眼球,更多的收入,广告商会更高兴,然后我的公司就会倒闭,投资者就会撤资。

赫拉利:这是一个很好的问题,因为需要考虑两个方面。首先是政府。政府可以监管并惩罚以社会责任方式定义目标的社交媒体公司,就像他们惩罚行为反社会的报纸、电视台或汽车公司一样。另一方面是人类并非愚蠢且具有自我毁灭倾向。如果我们想要更好的产品,从社会意义上来说也是更好的产品。我之前举了饮食的例子。食品公司发现,如果他们在产品中人为地添加大量的脂肪、糖和盐,人们就会喜欢它,

但是人们逐渐发现这对健康有害。所以现在你会发现,健康食品拥有巨大的市场,人们越来越关注自己的饮食。同样的事情也会发生在信息市场。

主持人: 但是代价是,在美国大约 70% 到 80% 的人患有慢性疾病和肥胖症,而且西方世界的预期寿命似乎正在下降。我不知道,我只是觉得监管酒精、尼古丁和食品等商品的消费,似乎比监管信息和信息流动要简单得多。除了种族主义或煽动暴力之外,我不知道如何监管。

主持人: 你有没有想过干脆退出网络,去某个地方的田野里生活,比如沙漠,或者干脆创建一个小型宗教?我每年都这样做。

赫拉利: 我每年都这样做。哦,真的吗?是的。我会进行 30 到 60 天的长期静修。就像今年,我计划在 12 月,新书巡回结束后,去印度进行 60 天的静修,完全断绝联系。没有智能手机,没有互联网,甚至没有书籍或书写纸。只是信息斋戒。为什么?这对头脑有好处。再说一次,就像食物一样,摄入过多对我们没有好处。我们需要时间来消化和排毒。这对头脑来说也是如此。如果你只是不断地用更多的东西轰炸它,你就会对错误的东西上瘾。你会养成坏习惯。你需要,或者至少我需要,休息一下,以便真正消化发生的一切,摆脱坏习惯。决定我想要什么,我不想要什么,我应该努力摆脱什么样的习惯、成瘾。还要了解我自己的思想。当头脑不断受到来自外部信息的轰炸时,你就无法……

它太吵了,你无法了解它,因为它太吵了。但当噪音消失后,你就可以开始了解什么是头脑了。它是如何运作的?它是如何工作的?思想从何而来?什么是恐惧?什么是愤怒?当你因为你读到的东西而怒火中烧时,你关注的是你愤怒的对象,但你无法理解愤怒本身。愤怒控制着你。

当你进行信息斋戒时,你就可以观察我生气时会发生什么。我的思想、我的身体会发生什么?它是如何控制我的?这比世界上任何愤怒的故事都重要,要了解愤怒到底是什么。这非常非常困难。有多少人会停下来,试着去了解他们的愤怒?而不是愤怒的对象。这是我们一直在做的事情。我们会不断回放。我们听到了一些我们不喜欢某个政客的可怕事情。比如,我不知道,有人对特朗普感到愤怒。所以他会一遍又一遍地回放。就像,哦,他是这样说的。他是那样做的。他会这样做。他会那样做。你无法通过这种方式了解你的愤怒。

主持人: 这很有趣。当你谈到未来会出现两种人时,我在脑海里想象着各种场景。一种人通过互联网,通过他们大脑中的神经连接,连接到信息高速公路上。他们就像被算法所吸引,算法向他们提供信息,他们根据信息采取行动,并回馈给算法更多信息。然后是另一群人,他们决定拒绝这种生活,他们没有植入神经连接,他们也不想与人工智能交互。他们在某个丛林的部落里生活。我女朋友很多年前对我说过,她说,我认为人类将会分裂。我当时觉得,随便吧。但现在我明白了,随着事情变得越来越极端,你会想,你知道吗,我要做一个决定。尤其是当我看到埃隆·马斯克正在研发的 Neuralink,它可以让你用大脑控制电脑,我坐下来对自己说。。。

赫拉利: 电脑也可以控制你的大脑。

主持人: 你说得对,我实际上没有考虑到这一点,但我只是在想,这是一个给所有听众的问题,如果我和你在一起,我的大脑里植入了现在人类大脑中用来控制电脑的芯片,我和你就是不同的物种,因为我可以控制,我可以控制我楼下的汽车,我可以控制这个房间里的灯,我可以问我的大脑问题并得到答案,我的智商会变成 5000,而你的智商仍然是 150 或 200,你的智商可能是 250。

但我是一个与你不同的物种。我对你有着巨大的竞争优势,如果你不植入芯片的话,嗯。。。

赫拉利: 那你就完蛋了。这就是物种形成。在历史上,我们在小范围内也看到过这种情况。有些人接受了书面文件,而有些人拒绝了。而那些拒绝的人,他们已经不存在了。因为接受了书面文件的人,他们建立了王国和帝国,征服了所有其他人。我们现在正面临着同样的事情发生的危险。这不是一件好事,因为对于那些有书面文件的人来说,生活并不一定更好。在很多情况下,以前那些以狩猎采集为生的人的生活反而更好。

主持人: 那解决办法是什么呢?读完你那本精彩的书《Nexus: 从石器时代到人工智能的信息网络简史》后,我想问问,解决办法是什么?我们如何,我们如何阻止失调问题?我们都变成了回形针,社会混乱,信息错误,你书中提到的硅幕,我们如何阻止这些事情摧毁我们的世界?还有希望吗?你乐观吗?

赫拉利: 关键在于合作,在于人与人之间的连接。我的意思是,人类仍然比人工智能强大。问题在于,我们彼此之间存在分歧,而算法在无意中加剧了这种分歧。同样,这是每个帝国最古老的法则,就是分而治之。这是罗马帝国的法则,也是大英帝国的法则。如果你想统治一个地方,你就让那个地方的人民互相争斗,然后就很容易操纵和控制他们。现在,这种情况正发生在整个人类身上,而人工智能就是罪魁祸首。正如冷战时期的铁幕一样,现在我们有了硅幕,它不仅将中国与美国隔开,而且将民主党人与共和党人隔开,也将人与人隔开,并将我们所有人与人工智能隔开,人工智能越来越多地做出决定,而我们必须对所有这些做出决定。我们还有力量,我不知道,五年,十年,二十年,来确保它不会走向反乌托邦的方向,但为此我们需要合作。你乐观吗?我试着做一个现实主义者。我的意思是,我刚从以色列回来,我看到一个国家毫无理由地自我毁灭。这是一个按下了自我毁灭按钮的国家。而且毫无理由。这种情况也可能在全球范围内发生。你说的按下自我毁灭按钮是什么意思?这不仅仅是以色列人和巴勒斯坦人之间的战争,而是以色列社会在反对自己,越来越多的分裂和敌意。这就像一个愤怒和暴力的黑洞,正在吞噬越来越多的人。你知道,在全世界范围内,你现在都能感受到来自中东这个黑洞的冲击波。而且没有充分的理由。没有客观的理由。我想谈谈巴以冲突。它没有客观的理由。这并不是说在地中海和约旦河之间没有足够的土地,人们必须为那一点点土地而战,或者说没有足够的食物。有足够的食物供所有人食用。有足够的土地供所有人建造房屋、医院和学校。那人们为什么要打仗呢?因为他们脑海中不同的故事。他们有不同的神话,说上帝把这整个地方只给了我们。你没有权利在这里。他们为此而战。

这是一场局部性的悲剧。它也可能在全球范围内发生。同样,如果有什么东西最终会毁灭我们,那将是我们自己的妄想,而不是人工智能。人工智能之所以有机会,是因为我们的弱点,是因为我们的妄想。

主持人: Yuval,谢谢你写了这本书。我认为这本书是我读过的最合时宜的书之一,因为它与现在世界上正在发生的一切息息相关。它真的帮助我理解,问题不在于我和你,如果你站在我的对立面。问题在于信息,在于我们消费的信息网络,在于谁在控制着这些信息网络。

赫拉利: 有人在操纵我们,让我们站在不同的立场上,不仅仅是站在不同的立场上,而是把对方看作敌人。现在,那是人。

主持人: 可能不是。

赫拉利: 不久之后,可能就不是人了。

主持人:我认为,理解这一点有助于我们专注于那些有时难以识别的问题的根源。我认为问题出在我的邻居身上,我认为是那个肤色不同的人。但实际上,如果你再深入一层,就会发现是信息网络和我所接触到的东西在给我洗脑,并创造了这些故事。正如你在上一本书中谈到的那样,最终是故事在主宰着世界。《Nexus》这本书来的正是时候,它是一本很棒的书,它帮助我们了解信息的强大力量,以及信息如何影响民主、人际关系、社会、商业以及介于两者之间的一切,我希望这将促使人们采取行动。我认为这是一件值得乐观的事情。

赫拉利:是的,我认为归根结底,大多数人都是好的。他们是好人。当你给人们错误的信息时,他们就会做出错误的决定。问题不在于人,而在于信息。

0 阅读:7