AI又成情感助手:他吼你!这样的对象不分留着过年?

未来图灵 2017-10-10 22:01:41

请点击输入图片描述

曾因为语气里带有类似斥责或讽刺意味,而遭到他人数落的孩子(或配偶一方)都知道,你和别人说话的方式和你的措词一样重要。声音艺术家和演员们很好地利用了这一点——他们善于以说话的方式传达意义, 有时比单独的语言更有价值。

请点击输入图片描述

但是, 在我们的语音语调和对话模式中,包含了多少信息,这对我们与他人的关系有何影响?目前,计算机系统已经可以通过声音辨别身份,那么,是否也能获取一些有关我们感情生活的信息?答案似乎是肯定的,这未免让人感到惊讶。

刚刚发表在《公共科学》杂志上的一项新研究, 分析了134对接受婚姻治疗的夫妇的声音特点。南加州大学的研究人员利用计算机,对两年来参与治疗课程的夫妇的录音进行了分析,总结出了基本的语言特征。这些特征都与语气和感情强烈程度等声音特点有关,包括音高、音调和语调的变化。

之后通过一个机器学习算法测算这些声音特点和最终疗效之间的关系。这不像检测斥责或上扬的语气那么简单,还包括对话的相互作用,谁说的,什么时候说的,持续了多长时间,以及音量大小。结果表明,忽略掉说话的内容,仅仅考虑说话的方式,就足以预测情侣是否会分手。这是一项纯粹靠数据驱动的研究,最终结果与特定的声音特征无关。

有趣的是,后来,治疗课程的完整视频到了专家学者手里。和人工智能不同的是,这些专家学者根据这些声音特点以及包括口头语言和身体语言在内的其他特点,通过心理评估的方式做出了他们的预测。令人惊奇的是,他们对最终结果的预测(75.6%的准确率)不如人工智能基于声音特点做出的预测(79.3%的准确率)准确。很明显,我们说话的方式里隐含着连专家学者都察觉不到的信息。当然,如果将计算机评估和专家评估结合起来,就能得到最理想的结果(79.6%的准确率)。

语气如何改变意义

以简单的问句“你是谁”为例。试试对不同的部位进行重读:“你是谁”“你是谁”“你是谁”。用耳朵去听,感受一下同样的内容,不同的说话方式所带来的不同语义。

纸上的或屏幕上的文字,其词汇意义来源于词典上的定义,而真正的含义会受到语境的影响。可见,写作是一件很复杂的事。但是,人们说出这些文字的时候,可以通过重音、音量、语速和语气赋予它额外的含义。在日常会话中,每个人说话的时长以及抢话的速度都有一定的含义。

这项研究不仅说明了人工智能能够胜任婚姻咨询工作,能够让情侣进行更好的交流,更揭示了我们说话的方式里暗藏了很多内心情感的信息,而其中有一些情感完全不为我们所知。

AI或可“泄漏感官信息”

不同的说话方式能赋予语言以不同的含义,这一点不足为奇。同样,计算机能够根据我们说话的方式解析出其中某些意味,也在意料之中(或许有一天计算机能够听出什么是反讽)。

但是这项研究调查的不仅仅是句子所传达的含义,似乎还揭示了句子背后隐含的态度和想法,这是对句子更进一步的理解。

接受婚姻治疗的夫妇说话不像演员说台词,他们就是在很自然地聊天,或者说,在治疗师办公室里那么自然地聊天。分析结果揭示了他们不经意就在谈话间“泄露”的共同情感。这可能是利用计算机判断我们真实想法或情感的第一步。想象一下未来的智能手机,在与智能手机交流时,它们是否能获取我们“泄露”的信息?它们又会作何反应呢?

智能手机是否能够通过听取我们的谈话在选取未来伴侣方面给我们一些建议?是否能够发现反社会行为倾向、暴力倾向、抑郁倾向以及其他什么情况?在未来,智能设备成为私人治疗师绝对不是什么天方夜谭,它们能通过不同的方式和我们进行有效的互动。

现在还不需要担心,我们离这样的未来还有好多好多年,但是确实会有隐私问题,尤其是在现在这种情况下,我们和计算机的互动越来越深入,而计算机分析世界的能力也越来越强。

再想想除了声音(言语)之外的其他人类感官,或许视觉(身体语言和脸红)、触觉(体温和动作)、甚至味觉(激素分泌)也能泄露信息。如果说智能设备能够通过我们说话的方式了解这么多信息,那么人们就会想知道它们通过其他感官能够搜集多少信息。

0 阅读:0