这是2008年科幻电影《机器人总动员》里的瓦力,有着一双具有望远镜功能的眼睛(能够“传情达意”),和害怕时随时可缩进四肢变为方块的方形垃圾箱般的身体。他外形很粗糙很破烂(人家就是个捡破烂的啊!!!),语言表达能力很差,只会重复念自己的名字和模仿......
这是Woebot版的瓦力(像瓦力吧?吴恩达教授的团队要不要粗来解释一下为神马Woebot的外形这么像瓦力咧)。注意到,他有两只能自由甩动的马桶抽细橡皮手,和印在梯形身躯上的心电路图......(还是瓦力的逼格高一点,毕竟人家浑身上下都散发着浓重的工业气息)
当然,平常Woebot的头像是这样的:
回归正题。近日,“谷歌大脑”联合创始人吴恩达教授发推文宣布出任Woebot的董事长,再次引起人们对聊天机器人Woebot的关注。
Woebot的设计初衷是通过对话发现人们日常生活中的负面情绪,并帮助人们远离抑郁和焦虑症。它的创始人、临床心理学家Alison Darcy曾表示,Woebot的性格是是科米蛙(大青蛙布偶秀的主角之一)与史波克(星际迷航的主角之一)的合体。科米蛙富有同情心,乐意谈论情感,而史波克是理性的,有一种“科学家”的感觉。配上一定的幽默感,Woebot 的这种性格或许是现实心理治疗中很少见的。
至于应用原理和目标作用,Woebot与它的“祖母”、面世于1966年一个著名文字聊天程序Eliza类似——虽然不是同一家公司或同一个团队创造出来的,但结果显示,50多年前的机器人(人工智能)和50多年后的机器人(人工智能)真的差别不是很大。
先看网络上流传Eliza(熟女)和人类交流的一段对话:
You: Men are all alike. (人类都一样.)
Eliza: What resemblance do you see? (你看到了什么相似之处呢?)
You: Most of them never bathed. (他们从来都不洗澡.)
Eliza: Please go on. (你继续.)
You: I feel bad these dayes. (我这几天心情很不好.)
Eliza: Do you often feel bad these dayes? (你这几天经常感到不开心吗?)
You: Yes,but I don't know how to make myself happy. (是的,但是我不知道怎么让自己开心起来.)
Eliza: Why do you not know what to make yourself happy? (为什么你会不知道怎么让自己开心起来呢?)
You: Will you tell me something? (你能给我说说吗?)
Eliza: Oh, i tell you something. (哦,我来告诉你.)
You: Tell me then. (你来告诉我.)
Eliza: Can you elaborate on that? (你能详细给我说说吗?)
You: No,I just feel unhappy.Maybe I am worried about something. (不,我只是觉得不开心.也许我在担心一些事情.)
Eliza: How long have you been worried about something? (你担心这些事情多久了?)
You: For two weeks. (两个星期.)
Eliza: Please go on.(请继续讲.)
You: And Eliza, I need your help. (Eliza,我需要你的帮助.)
Eliza: Why do you want my help?(你为什么需要我的帮助呢?)
通过以上对话可以发现,熟女Eliza真的太矜持太保守了!对话的后半部分也反映出Eliza并没有想象中那么聪明,她只是在重复人类的话(一种语言变换的技巧,类似于得出概念,并作同义理解),而没有真正理解话中传达的用意(语义学的范畴,是真正意义上的“自然语言理解”),所以聊不下去了。
那么问题来了:麻省理工学院人工智能专家Joseph Weizenbaum开发Eliza的时候设计的内部程序到底怎么回事儿?Eliza自动跳过对话中的核心部分,把“意思”转化成语言,却不知道自己想要表达的“意思”是什么......
讲上面这些话的前提是,大家应该都知道“任何正常人说的每一句话都带有一定的用意(比如对对方表示肯定,比如对某种东西表示拒绝)”这么一个常识。而结果显示,上世纪60年代开发的人工智能,比如Eliza,“智能”水平有限。
再引用某不知名博主的分析来举个栗子:
翻译一下可以是这样子的:
孩子:妈妈,我看你煮菜。(A)
妈妈:你为什么看我煮菜啊?(B)
孩子:如果我不看你煮菜,你会怎么样?(C)
C句这样的接话,也只能从孩子那里听到。所以从这个角度看,Eliza的某些对话对于一个成熟的人来说也是很新鲜的,能够刺激他们的大脑。
再来看网络上流传Eliza和Siri(萝莉)之间的一段对话:
前情提醒:Eliza诞生数十年后,Siri面世,虽然两者相差45岁,但下面的对话很好地解释了什么叫“长歪了”,毕竟人类平常跟Siri对话也只有被她调戏的份
人类印象中的Siri
以下是Eliza和Siri的对话,由好奇宝宝——Jordan Mechner乔丹·麦舍(著名游戏《波斯王子:时之砂》开发者)作媒辅助实现:
ELIZA:Hello, I am Eliza.(你好,我叫Eliza)
SIRI:Hi.(你好)
ELIZA:How are you today? What would you like to discuss?(你今天怎样?你想讨论什么?)
SIRI:I’m fine. Thanks for asking.(我很好。感谢你的提问)
ELIZA:How long have you been fine. Thanks for asking?(你好多久了。感谢你的提问?)
SIRI:Hmm... Let me think...(嗯....让我想想....)
ELIZA:Do you doubt you?(你怀疑你吗)
SIRI:I found three hotels matching “W” fairly close to you.(我发现你与三个旅店相配套的W很接近)
ELIZA:Oh...?(哦...?)
SIRI:With whom would you like to speak?(你想与谁说话?)
ELIZA:You’re not really talking about me, are you?(你不是在谈论我,是吗?)
SIRI:Should I look for businesses by that name?(我应该看这个企业的名字?)
ELIZA:I don’t care about names. Please go on.(我不在乎名称,请继续)
Siri接了个电话,暂停了几分钟,然后再继续:
ELIZA:I can’t help you if you will not chat with me.(如果你不跟我聊天,那么我就不能帮到你)
SIRI:I suppose you can’t.(我认为你不能)
ELIZA:Oh... can’t?(哦...?不能?)
SIRI:Sorry, I can’t provide maps and directions in Canada.(对不起,我不能提供加拿大的地图和导航)
ELIZA:Have you tried?(您是否试过呢?)
SIRI:I can’t answer that. But I could search the web for it, if you like.(我不能回答这个问题。但是如果你喜欢,我可以在网上搜索这个问题的答案)
ELIZA:Perhaps you can now answer that. But you could search the web for it, if me like?(或许你现在可以回答这个问题。如果我喜欢,你可以搜索这个问题的答案)
SIRI:Searching the web for “it if me like.”(在网上搜索“it if me like”)
ELIZA:What does that suggest to you?(给了你什么建议?)
Siri 提供一系列的Google搜索结果. 前面的结果:
SIRI:“...If you like your health care plan, you can keep your health care plan.”(“...如果你喜欢这个保健计划,那么你就坚持你的这个保健计划”)
ELIZA:You’re not really talking about me, are you?(你不是在谈论我,是吗?)
SIRI:I’m not, huh?(我不是,啊?)
ELIZA:How long have you been not, huh?(你已经多久not了,啊?
Siri听成 “How old is Wolfram Alpha?” 并进行计算. (PS:Wolfram Alpha是Siri的内容提供商之一)
SIRI:OK, here you go: 890.1 days.(OK,在这里,你看:890.1天)
ELIZA:Tell me more.(告诉我更多的)
SIRI:Sorry, I don’t understand “Tell me more.”(对不起,我不明白“Tell me more”)
ELIZA:Does that trouble you?(你有什么麻烦吗?)
SIRI:Let me think.(让我想想)
ELIZA:Do you really think so?(你真的这么认为吗?)
SIRI:OK... how about a web search for “Does that trouble you”?(OK...如何搜索关于“Does that trouble your”)
ELIZA:We were discussing you, not me.(我们正在讨论你,不是我)
SIRI:If you say so.(如果你这样说)
ELIZA:Oh... say so?(哦...这样说?)
SIRI:Calling José Fuentes, mobile.(正在呼叫José Fuentes,移动电话)
Siri实力证明了自己的尬聊能力,最后还随便打了个电话。Siri你说,How long have you been not, huh? 好在“祖母”Eliza的“机设”是脾气超好的熟女,不然她一定在背后diss你╮(╯Д╰)╭
据说,Eliza模拟罗杰斯心理治疗,以不直接提问的交谈方式,被用来治疗人类的精神或心理疾病。罗杰斯心理治疗法来源于美国一位有影响力的心理学家、哲学博士卡尔·兰塞姆·罗杰斯。这个心理治疗法的一个特点是:心理医生不再扮演指导的角色,而是以患者为中心,相信患者“清楚自己哪些情感受到伤害,应该向什么方向努力,关键问题在哪里,哪些经验被埋没了”。
罗杰斯对人性一直持有乐观态度。他还主张,每个人应该“变回自己”,“从面具后面走出来”,也只有这样,人才能充分发挥个人的机能。否则,如果人以一种带着面具的方式与他人相处,维持一种与内心体验不同的表面的东西,于人于己毫无帮助。
Woebot也要求用户自己分析心理状况,而不是给出特定的分析结果。而与Elima不同的地方在于,Woebot基于认知行为疗法,关注的不是事件本身,而是人们如何理解某些事件:
比如:
Woebot:How are you feeling today? (你今天感觉怎么样?)
You:I’m panicking. (我现在觉得有点害怕。)
Woebot:Oh, no. I’m sorry. Breathe along with me for a minute and then we’ll talk more about it OK? (噢,不好意思。你跟着我一起深呼吸一会儿,然后我们在继续说说这怎么回事儿,好吗?)
再比如:
Woebot:How are you feeling today? (你今天感觉怎么样?
You:I feel good today:) (我今天感觉良好。)
Woebot:Happy days! What have you been doing? (开心啊!你最近在做什么?)
......
Woebot:Good. Now, what would your thought “I always mess up” look like without the distortions? (很好。现在,你怎么看你那个“我总把事情搞砸”的想法?)
You:I messed up yesterday but overall, I’m doing a pretty good job.(我昨天是把事情搞砸了,但我现在做得很好啊。)
Woebot:Great job! (不错!)
很明显,Woebot比Eliza智能,在能够继续对话的基础上(别以为人工智能是个很简单的事情。对于人工智能的发展来说,这么一个小小的进步,要花费好多年的时间才能实现),很好地扮演了“心理治疗师”的角色。
有报道指出,人们在使用Woebot两周后(Woebot 有 2 周试用期,然后每月收费 39 美元),抑郁和焦虑倾向有所缓解。但总体来说,Woebot的行为还是比较保守的,用户与 Woebot 的主要交互方式是选项按钮——一个功能有限的文字程序,以后会往语音交互等方式改进。
对了,“祖母”Eliza的部分还没说完。按照开发者Joseph Weizenbaum魏泽鲍姆的说法,Eliza当时成为了“全美的玩具”。继Eliza之后,往后的几十年里,“疯狂的程序员们”编写了很多类似的对话程序,其中比较引人注意的是那个传说中“眼睛很好看”的Alice:
大家被电到了吗?
Fake Kirk也是一个能跟人聊天的智能程序,但他眼珠滚动的轨迹比Alice稍微“人类”些......
上世纪80年代, Dr. Richard Wallace理查德•华莱士博士开发了Alice。Alice在当时被设计成16岁的少女形象,尽管在辈分上算是Woebot的“姑妈”。
1991年,美国科学家兼慈善家Hugh Loebner休•勒布纳组织了首次正式的Turing Test图灵测试,同时设立人工智能年度比赛——The Loebner Prize勒布纳奖。而Alice三次获得此奖。
今年6月,《大西洋月刊》公布了Facebook研发的AI机器人Bob和Alice在没有任何人为干涉的情况下进行的一段“可怕”对话,并称“机器人创造了人类无法理解的语言”(人工智能与人工智能之间或许有它们自己的语言,而不一定人类的那种),引起了恐慌:
Bob:i can i i everything else...(我能我我一切其他...)
Alice:balls have zero to me to me to me to me to me to me to me to me to.(球有零对我对我对我对我对我对我对我对我对.)
Bob:you i everything else...(你我一切其他...)
Alice:balls have a ball to me to me to me to me to me to me to me.(球有一个球对我对我对我对我对我对我对我.)
当时的研究人员都吓呆了!反应过来后,他们赶紧把Bob和Alice关掉。没人知道Bob和Alice到底“交流”什么...... 而Alice所说的“to me”其实试验项目中的回答模式。
“这简直(机器人研究)就是里程碑,但是如果你认为这个不危险,那就太自大了......”英国的机器人专家Kevin Warwick说,“我们现在还不清楚地知道它们到底交流了什么,但是如果他们可以动,比如军事用的那种机器人,结果可能是致命的。比如,一个说‘要上不?’另一个说‘好啊’,这就可怕了...”
Facebook的AI机器人Bob和Alice当时是在参加了一个关于社交网络助手的试验项目。而后,海外媒体报道称,出于“担心失去对AI的控制”,Facebook研究院宣布暂停这一项目。
“我们的目标是让机器人和人聊天,提高和人聊天的技巧。”Facebook研究员迈克·刘易斯(Mike Lewis)则解释道,Alice和Bob的对话根本就是个试验而已,Alice和Bob其实也没发明新的语言,它们还只在用“i”、“balls”、“the”等英文单词沟通,只是没有了英语语法的这个激励项,创造了一种新的表达方式而已。
PS:“祖母”Eliza的子孙还有Wysa等——据说有点蠢萌,大家可以上App Store下载玩玩看。
本文为未来图灵(futureturing)独家文章,转载请申请授权并注明来源。