借助人工智能程序,计算机翻译人类语言的能力将大大提升,催生根本性变革。但最近一项研究表明,人工智能也存在性别歧视和种族歧视的倾向。
目前,人工智能(AI)在人类的生活中扮演着越来越重要的角色,帮助人类决策。因此这一研究结果难免引人深思:随着人工智能的发展,人类社会现有的不平等和歧视现象是否会以不可预知的新方式进一步激化?
在过去这几年里,类似谷歌翻译等机器翻译软件可谓发展势头迅猛,一路高歌。得益于算法训练,机器学习技术能够不断更新和改进,软件还有大量的在线文本数据作为支持,所以AI取得如此巨大的进步也算是意料之中。
然而最新的研究指出,机器的语言理解能力虽然越来越具有近乎人类的水平,同时却也吸收了隐藏在人类语言使用模式中根深蒂固的歧视。
巴斯大学计算机科学家乔安娜·布莱森是该项研究的合著者之一,她表示:“很多人都认为我们的研究说明AI具有偏见性。其实不是这样,AI之所以也会产生歧视,恰恰是因为我们这些对它编程的人类戴着有色眼镜看问题,而AI正在学习这一点。”
虽然结果听起来似乎还很乐观,但布莱森仍然警告道,AI与人类不同,人类可以依靠各种后天性的经历,最终有意识地抵消学习偏见,但算法不同,它反而很有可能加强现有的偏见。她解释道:“一个AI系统如果没有一个明确基于道德观念的组成部分,那这个AI就会具有危险性,这一点非常糟糕。”
巴斯大学这一研究论文发表在《科学》杂志上,重点介绍了一种被称为“词嵌入”的机器学习工具。目前,这一工具已经开始改变计算机翻译人类语言和文本的方式。有人认为,顺着如今的潮流趋势,科技的下一步发展自然而然地就可能是机器开发出一些高度仿真的人类能力,比如常识和逻辑。
论文作者、普林斯顿大学计算机科学家阿尔温德·纳拉亚南表示:“词嵌入在过去几年里为计算机翻译人类语言做出了惊人的贡献,这也是我们选择研究词嵌入的一个主要原因。”
词嵌入已经广泛应用于网页搜索和机器翻译。通过对语言建立数学表达式,它可以将词的含义转换为一串数字,即词向量。这时,其它出现频率最高的相关词汇会显示在这一词向量的旁边。令人惊讶的是,这虽然只是纯粹的统计学方法,却能够顺利捕捉到某个词语在丰富的文化与社会语境下所蕴含的多重深意,要知道,许多词典往往都做不到这一点。
例如,在具有数学意义的“语言空间”中,有关“花”的词语经常会匹配成“令人喜悦”等词,而与“昆虫”相关的词语则更易匹配出“令人不悦”等词。这一例子很好地反映出在人类的普遍观念中,花与昆虫这一对概念具有相对的优缺点。
而且研究还指出,算法也很容易获得一些为人类心理学实验所证明的内隐偏见,这些偏见更加令人不安。比如说,在AI程序中,“女性”和“妇女”等词通常与艺术和人文职业、家庭紧密联系在一起,而“男性”和“男人”经常与数学、工程专业等词相匹配。
不仅如此,AI系统还更有可能将欧洲人和美国人的名字与类似“礼物”或“快乐”等等带有正面含义的词语联系起来,非裔美国人的名字则往往更容易和负面词汇一起出现。无独有偶,在谷歌搜索“女性职业发型”时,网站根据上下文线索提供的搜索结果往往是专业发型师设计的精致发型,搜索“非职业女性发型”时,搜到的往往是大量黑人女性的照片,其发型也都非常普通,甚至奇形怪状;AI担任选美大赛评委时,也认为白人比非裔更有吸引力。
研究结果表明,名为“智能”的算法已经和人类一样带有偏见,人们在编程时就已将自己的偏见融入代码之中,令AI通过人类的蜂巢思维培养下一代自动化科技。这些偏见本来源于人类,毕竟只有人类(至少包括英国人和美国人)才会在隐性关联测试中把正面词汇和白种人面孔联系在一起。
一般人都知道,类似的偏见可能会对人们的行为产生深远影响。以前有一项研究表明,求职时如果有两位候选人带着相同的简历去申请面试,其中一位的名字看起来更像欧洲人或美国人,另一位的像非裔美国人,那么欧美人的通过几率会比后者增加50%。而巴斯大学的这项研究告诉我们,除非人们明确写出能够解决这个问题的算法,否则计算机简历筛选程序同样会因为这样的社会歧视而漏洞百出。布莱森说:“如果之前有人不相信一个人的名字也会导致种族歧视,那么现在他们就能理解这个现象了。”
研究中所使用的机器学习工具在一个被称为“共同爬行”语料库的数据集上完成了训练。这一数据集涵盖8400亿个单词,这些单词均摘取自网络上在线发布的文字材料。研究者在使用从谷歌新闻摘取的数据对这一AI工具进行智能训练时,也能得出类似的分析结果。
牛津大学数据伦理与算法研究员桑德拉·瓦赫特说:“世界上存在歧视,历史上的语言数据也带有偏见印记,因此我们分析出的结果自然会沾染上偏见,这并不奇怪。”她还补充,AI自带偏见并不代表AI算法对人类来说意味着威胁,他们可能会找到解决计算机偏见的办法,并让AI程序学会在必要的情况下正确抵制偏见。
“其实AI已经很不错了,至少我们可以判断出算法什么时候会产生偏见,”瓦赫特评价道,“人类才更难以捉摸。比如招聘官可能会撒个谎,说他们没有雇用某人是出于其他考虑,不是因为对方是非裔。而双重标准的是,人类偏偏又不希望算法也会用谎言来欺骗自己。”
不过瓦赫特也表示,假如想根除那些用来理解人类语言的算法中的不正确偏见,同时不削弱它们的理解能力,必定要克服极大挑战。
“原则上,我们可以建立一个检测系统,识别那些带有偏见和歧视的AI决策,标定之后予以更正,”她已经在和其他人一起呼吁开发人工智能监视器,“我知道这项任务会非常复杂,处理起来非常棘手,但这恰恰也是一种社会责任,我们绝不能回避和退缩。”
本文为未来图灵(futureturing)独家文章,转载请申请授权并注明来源。