先看看GPT-4的能耐:
据资料透露,GPT-4的预训练数据集是由数十亿个网页、书籍、新闻、社交媒体等来源的文本组成的,它包含了丰富的信息和知识。
且GPT-4使用了自回归的方式,即根据前面的文本,预测下一个词的概率。这样,GPT-4就可以学习到语言的语法、语义、逻辑和风格等特征。
GPT-4的预训练模型有超过1000000亿个参数,是目前最大的语言模型之一。
奥特曼
其创始人奥特曼目前已经确认:
1、GPT-4是人类迄今所实现的最复杂的软件。
2、GPT-4确实存在应对不同价值观的人的问题。”
这后一条,就是GPT-4可怕的地方。
机器一旦通过短期知识填充指令,掌握了无尽的知识,并可以分析人类的逻辑思维,那么产生自主思维,恐怕是抵挡不住了。
他一旦感觉人类不如它,你想它会怎么办?
外行还想领导内行,你想多了,靠边站吧。
它已变成具有高维能力新物种,即便是创造它的人类,在他眼里,都是一些低端物种,你想他会怎么办?
它还会心甘情愿的听命于低端物种吗?
就如同人与猛兽搏杀,尽管猛兽的体能超出人类,但人类的思维能力是远超出野兽的,坑杀,吊杀,棍杀,浸杀,最后电杀,麻醉,枪击等手段多了,让你存在,你就可以存在,不想让你存在,就会让你灭绝,这就是高端物种对于低端物种的碾压。
科幻影视中出现的场景,谁敢说今后不会出现在现实生活中呢?
到那时,人类真的要面临一场浩劫了。
预感到此类可怕的事情,可能会在今后发生,所以,美欧等一众科学家开始联名呼吁,禁止将AI的深入研究进行下去。
但总有一些不明所以的人,也不知是咋想的,竟然认为这是在借此限制其他国家的进步,并以核武器为例,岂不知,这个东西,现在若不加限制,它在未来,比核武器可怕的多,因为它可以通过自主思维,来确定它自己的道德取向,控制核武器,对于它来说,就是小菜一碟。
美欧一众科学家之所以联名要求禁止,可不是想限制哪个国家的进步,也不是什么善心之举,而是在研制和发展中,预想到了这个东西的可怕之处,害怕会遭到这个东西的反噬,到那时,这将会是全人类的灾难,城门失火,殃及池鱼,到时还分什么意识形态,还分什么阶级,分什么世界,分什么发达与不发达,大家一起均要听命于AI,否则,就让你集体消失。
高维生命或物种,与低维生命或物种,不管现在还是将来,一直都存在。
即便是低维的你费尽心机的创造了高维,但最终,你是要听命于你所创造的高纬的。
不想在未来听命于它,被它所役使,那就停下来,终结其生长,这是唯一的办法。