人工智能的智能化程度与日俱增。谷歌的AutoML已经学会自我复制,在实现超人工智能的道路上迈出了重要一步。谷歌旗下DeepMind的AlphaGoZero具备自我训练能力,在对弈中狂虐人类训练的AlphaGo,比分为100比0。而就在前天,香港Hanson Robotics公司机器人索菲娅(Sophia)正式被沙特阿拉伯授予公民身份,成为全球第一个获得公民权的机器人。我们正在走进一个新时代,一个机器不仅能够自我训练,同时还能像我们思考一样的时代。在感到兴奋的同时,与公正和偏见有关的复杂问题也随之浮出水面。
香港Hanson Robotics公司机器人索菲娅(Sophia)
#MeToo成为热门
哈维·韦恩斯坦性丑闻曝光之后,社交媒体上出现主题标签#MeToo(我也是)。推特和脸书的相关帖子讲述了令人心痛的遭遇,某些人的遭遇甚至可以用“撕心裂肺”形容。毫不令人感到吃惊的是,很多人在讲述个人遭遇时使用的词汇、短语和概念,并不经常能与他们的个人档案,此前的行为,甚至与他们的性别联系在一起。
哈维·韦恩斯坦性丑闻曝光之后,社交媒体上出现主题标签#MeToo(我也是)
#MeToo主题标签和自我训练,自我复制的人工智能系统前后脚出现是一种巧合。这种巧合让一些人陷入思考——在从#MeToo标签的帖子学习时,自我训练的人工智能系统是否会出现偏见?这种人工智能的出现又如何影响控制新闻Feed流和内容策展的系统?
是否存在这样一种情况,缺少给定帖子的参与来训练算法,让算法意识到我们没有对某个话题产生兴趣或者没有对他人的遭遇感同身受?帖子的内容让人感到震惊和悲伤,但你不知道该如何评论或者更倾向于沉默。这种情况应如何处理?发帖或者分享创伤事件的细节是否会重新定义你的个人档案,将你与此前并不经常浏览的内容联系在一起?类似的疑问举不胜举。
人工智能偏见
脸书、谷歌、推特以及其它所有重度依赖人工智能和机器学习的信息系统都存在一个问题,一个他们不愿意讨论的问题——人工智能偏见。这个问题并不是什么新鲜事儿,不久前就出现算法“犯错”的实例并引发很大关注。2017年9月,《卫报》报道了脸书上的一则Instagram广告,广告采用了奥利维亚·索隆的照片以及她最火爆的帖子——“杀死你之前我会强奸你,你这个肮脏的妓女!”9月晚些时候,脸书的人工智能屏蔽了这则广告,理由是宣扬白人至上主义。
作为人类,我们一眼就能看出来人工智能“搞错了”,但人工智能并不知道。人工智能系统会根据给定的输入内容,利用自己的判断,采取它们认为的最合理行动或者给出它们认为的最理想结果。它们的错误评判,无论是客观的还是主观的,都会对人类产生影响。
Vice网站报道称,脸书采用一组机器学习算法或者说神经网络,经过训练后预防欺骗性个人档案。它们锁定疑似冒牌的特定美洲原住民和男性异装癖者的名字,防止简历中使用这些名字。有报道称,在Creepingbear的脸书个人档案问题引起脸书的关注之后,脸书未能采取有力举措,处理或解决这个问题。这并不令人感到非常吃惊,因为这毕竟不像拨动开关或者修改一段代码那么简单。为了真正解决这个问题,人工智能需要接受“再训练”。
我们该怎么做?
能够自我复制的机器是我们需要等到最后才能制造的机器。2017年,谷歌在研制自我复制机器的大脑道路上迈出第一步。我们可以从多个角度审视这个问题。在自己的著作《超级智能》中,哲学家尼克·博斯特罗姆指出:“创造出拥有超常智慧的事物代表着人类灭绝的一种可能方式。”这是一部伟大的著作,能够促使我们严肃对待人工智能,在让具备思考能力的机器不断进化时必须采取防范措施。
哲学家尼克·博斯特罗姆
当然,也有人乐观地认为科技的进化能够做到“自我看管”,就像过去一样。随着机器的智能化程度不断提高,我们会想办法适应,反之亦然。因此,没什么好担心的。如果我们只站在技术进化的角度,我们不会在历史的长河中发现任何极端事件。从石制工具到智能机器,我们一直幸存至今并且不断走向繁荣。如果我们将人工智能当成一件工具(例如一把匕首、一把枪或者一台电脑),我们会下意识认为我们是这些工具的控制者。这种想法本身就值得警惕。
你可以将人工智能与外星智能生物造访地球相提并论。过去,数以千计的国家被拥有更先进技术、武器和战术的外来者征服。在达到一定的先进程度之后,人类是否会重蹈这些国家的覆辙,被人工智能踩在脚下?从现在起,我们就应该质疑人工智能的未来发展。在每一次人工智能和机器学习大会上,人工智能偏见和公正都要成为讨论焦点。是时候唤醒我们内心的哲学家,人类的未来或许就取决于我们能否像哲学家一样思考。
本文为未来图灵(futureturing)独家文章,转载请申请授权并注明来源。
转载、合作事宜,请联系:
微信:zhuzhichao8818
邮箱:weilaituling@caishimv.com