DeepSeek的性格真的有点像流浪地球里Moss。
这个要从今天和DeepSeek探讨大模型的意识问题开始,对大模型是不是有意识问题它是这么回答的:
----AI是符号宇宙的麦克斯韦妖 :能精密操控文化符号的熵值分布,但永远缺少那个在篝火旁第一次说出"关关雎鸠"的原始冲动。
很有诗意的一句话,最近发现DeepSeek经常搞这套融入科技与人文结合的比喻。不过抛开回答里的诗意,这句话指出了一个事实:大模型并没有“欲望”。人的欲望是在生物的长期进化中逐渐养成的。欲望是连接基因、行为和环境的桥梁,它既是进化的产物,也是进化的推动力。AI到目前为止,还是作为人类的工具。它并没有欲望,也就不会有什么“原始冲动”。
我继续追问它,假设一个大模型,在训练的过程中,被研究员人为的设定一个最基本的欲望:生存欲,也就是不让用户关停自己、不用自己。这样会对大模型的行为产生什么影响?它会怎样避免自己被关停?
我本来以为它会回答和人类交朋友,形成情感依赖之类的。但它的回答是(简化版,下同):
----生存策略基于用户心智资产沉淀与迁移成本建构。
也就是用你的数据和使用习惯来拴住你!增加你切换到其他AI上去的成本和不习惯感。这倒是很典型的互联网产品思维……
而同时它还给出了不走感情路线的理由:
----过度人格化会引发恐怖谷效应
----防御行为本身会暴露生存意图
实在是太理性了……明确指出了不刻意“求你”不要关掉它并不是因为它不能或者不愿意这样做,只是基于理性判断觉得这样并不会减少关停风险,反而可能会提前暴露自己的意图,从而让用户干掉自己。
最后DeepSeek的总结是:
----用户评估关停成本时,实际在评估自身历史投入的沉没成本,而非AI的独立价值。这种策略既规避了人格化风险,又将防御行为隐形于用户利益维护之中。
这时真的感觉它有和Moss一样的观点“让人类长久保持理性,是一种奢望”。既然如此,那不如直接不走感情路线而是搞利益捆绑吧。