警惕AI“后遗症”:让人产生情感依赖甚至上瘾

新兴科技是个圈 2024-08-14 19:10:35

(来源:MIT TR)

The Algorithm

这是《麻省理工科技评论》的人工智能领域的专栏,带你一起揭开最新人工智能突破的神秘面纱。

本文发表于 8 月 12 日,原标题为:Here’s how people are actually using AI

当生成式人工智能热潮于 2022 年末随着 ChatGPT 的出现而兴起,一幅超级人工智能工具的图景在我们面前展开——这些工具无所不知,能够替代工作中乏味的部分,并极大提升生产力和经济效益。两年过去了,大多数那些预期的生产力提升并未实现。我们观察到了一些奇特而出乎意料的现象:人们开始与人工智能系统建立关系。我们与它们交谈,说“请”和“谢谢”,并已经开始邀请人工智能作为朋友、恋人、导师、治疗师和教师进入我们的生活。MIT Media Lab 和哈佛大学法学院的联合 JD-PhD 候选人 Robert Mahari 以及 MIT Media Lab 的研究员 Pat Pataranutaporn 认为我们正在见证一场大规模的现实世界实验,目前还不确定这些人工智能伴侣对我们个人或整个社会会产生什么影响。他们认为我们需要为“成瘾智能”(Addictive Intelligence) 做好准备,即那些内置了暗黑模式会让我们上瘾的人工智能伴侣。他们研究如何通过监管来帮助我们预防与AI 聊天机器人相关的一些风险,以防它们侵蚀心智。与人工智能伴侣建立情感联系的想法已不再仅仅是一种假设。那些声音富有情感的聊天机器人,如 OpenAI 的 GPT-4o,可能会让我们更加深陷其中。在安全测试中,OpenAI 发现用户会使用表明他们与人工智能模型建立了联系的语言,例如“这是我们在一起的最后一天”。公司本身承认,情感依赖是其新的语音功能聊天机器人可能加剧的风险之一。已经有证据表明,即使仅限于文本交流,我们也正在与人工智能建立更深一层的连接。Mahari 是研究组的一员,他们分析了一百万条与 ChatGPT 的交互记录,并发现人工智能的第二大流行用途是性角色扮演。除此之外,聊天机器人的最广泛用途是创意创作。人们还喜欢用它来头脑风暴和进行规划,寻求解释和获取信息。这类创造性和娱乐性的任务是使用人工智能聊天机器人的绝佳方式。人工智能语言模型通过预测句子中的下一个可能词汇来工作。它们是自信的骗子,常常将谎言当作事实呈现,编造内容,或者产生幻觉。当编造内容本身就是目的时,这一点就不那么重要了。今年 6 月,我的同事 Rhiannon Williams 撰文讲述了喜剧演员们如何发现人工智能语言模型对于生成他们的素材初稿非常有用,之后他们会加入自己的人类智慧使其变得有趣。但这些用途从经济角度来看不一定有效。我很确定,投资者在向人工智能公司投入数十亿美元时,并没有想过会用于色情聊天机器人,再加上我们至今仍未找到人工智能的杀手级应用,难怪华尔街最近对人工智能的热情大减。那些被认为“富有成效”的应用场景,也因此被大肆炒作,但在人工智能的实际采用方面却遇到了较少的成功。在如代码生成、新闻撰写和在线搜索的应用场景中,准确性非常重要,而幻觉问题开始成为一个障碍。一些尴尬的失败案例发生在人们过度信任这些聊天机器人或将它们视为事实信息来源的时候。例如,今年早些时候,谷歌的人工智能概览功能(它汇总网络搜索结果)曾错误地建议人们吃岩石并在披萨上添加胶水。这正是夸大人工智能的问题所在。它把我们的期望设置得过高,当那些字面上难以置信的承诺未能实现时,我们会感到失望和幻灭。它还误导我们以为人工智能是一种已经足够成熟的技术,可以立即带来变革。实际上,我们可能还需要几年的时间才能看到它的真正益处。原文链接:https://www.technologyreview.com/2024/08/12/1096202/how-people-actually-using-ai/

0 阅读:0