胶水披萨?每天吃石头?AI其实可能在胡说八道!

环球科技视角事 2024-06-13 03:21:27

在当今信息爆炸的时代,人工智能(AI)已成为我们生活中不可或缺的一部分。然而,随着AI技术的广泛应用,其潜在的问题也逐渐浮出水面。近期,谷歌AI在回答用户提问时出现的错误引发了广泛关注,这不仅揭示了AI技术的局限性,也引发了对AI本质的深入思考。

安全研究员科林・麦克米伦发现,当询问谷歌应该往披萨里加多少胶水时,谷歌AI并未给出正确的警告,反而引用了网红凯蒂・诺托普洛斯的恶搞文章,建议用户加八分之一杯胶水。这一答案不仅荒谬,而且可能对用户的健康造成严重威胁。

此外,The Verge的编辑在询问如何在隐身模式下截取Chrome浏览器的截图时,谷歌AI给出的两个答案都是错误的。这些事件暴露了AI在处理信息时的缺陷,也引发了对其可靠性的质疑。

谷歌首席执行官桑达尔・皮查伊曾表示,这些AI摘要功能产生的“幻觉”是大型语言模型(LLM)的“固有缺陷”,目前尚无解决方案。这一观点得到了英国格拉斯哥大学哲学研究人员的支持。他们认为,将AI的错误回答称为“幻觉”并不准确,用“胡说八道”来描述更为恰当。

因为AI并非经历“幻觉”,而是在复制训练数据中的人类语言模式,并不关心事实的准确性。它们没有信念、意图或理解力,不准确性不是因为误解或幻觉,而是因为它们被设计用来创建看起来、听起来都正确的文本,却没有任何“内在机制”来确保事实的准确性。

当然,具体到披萨 + 胶水这个例子因为过于离谱,大部分人都不会当真。但也有人马上举出谷歌 Gemini 更多、更危险的失误,例如建议用户每天至少吃一块小石头,以及把剧毒的毁灭天使菌判断成可食用口蘑等。

有人认为,加入不完善的AI功能,反而是在毁掉搜索引擎,摧毁了人们几十年来对这个产品的信任。甚至有人感叹,我们才进入AI时代没几个月,就已经变成了一场灾难。

谷歌AI的错误回答不仅是一个技术问题,更是一个关于AI本质和人类如何与之相处的哲学问题。我们应该认识到AI的局限性,并在使用AI时保持警惕和批判性思维。只有这样,我们才能更好地利用AI的优势,同时避免其潜在的风险。

0 阅读:11