本周Facebook遭遇了史上最严重的信任危机。一家“独立”运行的社交科技公司怎么会和“政治选举”、“特朗普”、“干预美国大选”、“政治贿赂”、“民主的危害”这些刺眼的词语纠缠在一起?根据英国《卫报》、《观察家报》,美国《纽约时报》等媒体的披露,一家名叫Cambridge Analytica(剑桥分析)的公司“窃用”Facebook平台5000万用户数据,通过利用第三方APP非法的分析用户心理特征数据,影响了包括2016年美国大选在内的多国选举,并在英国脱欧公投中发挥了巨大的作用。
3月19日,英国BBC电视4台(Channel4)播出专题报道,记者暗访Cambridge Analytica(剑桥分析公司)高管CEO亚历山大·尼克斯(Alexander Nix),揭露该公司如何不择手段利用金钱和乌克兰美女等肮脏手段,帮助选举“用户”上位。Cambridge Analytica及其母公司SCL(英国战略交流实验室公司)干预世界各国超过200场大选结果,包括捷克、乌克兰、印度、尼日利亚、肯尼亚、墨西哥、巴西、阿根廷、马来西亚等等国家。短短几天内时间事件持续发酵,Facebook遭到来自投资人,华尔街,美国政府,欧洲政府机构和官员的围攻。
经过几天的沉默,美国时间3月21日,Facebook首席执行官扎克伯格在个人Facebook账号上承认错误,“犯了错误,需要做的更多”,称“我们有责任保护大家的数据,如果做不到,那么我们就不配为大家提供服务”,“亚历山大·科根和剑桥分析公司对Facebook失信,也是Facebook对与我们分享并期望我们保护数据的人群失信”。
在同天扎克伯格接受美国有线电视新闻网(CNN)采访时,再次道歉,“保护大家的数据是我们的基本责任”,辩称剑桥分析公司没有按照Facebook的要求删除用户的个人信息,是对Facebook的“违约”。承认剑桥分析公司涉嫌影响美国2016年大选,并愿意就此事前往美国国会作证。
不仅仅是Facebook
技术社会学家Zeynep Tufekci在《纽约时报》发表社评指出,真正的丑闻主角不是剑桥分析公司,而是Facebook的基本业务模式。剑桥分析只是不凑巧的被媒体抓到,究竟还有多少类似数据公司的开发人员从Facebook上收集用户信息,公众并不知情。
Facebook旗下的Instagram,拥有大约8亿月活量用户。利用用户的数据分析给用户发广告,从理论上来说,广告主可以根据目标人群定向的利用造谣散布不实消息。举个例子,2016年美国大选时,俄罗斯一些“坏蛋”通过乔装成为“良民”来影响大选结果。
上图的图片广告有“赞助”(Sponsored)两个字。2016年11月,俄罗斯广告买主通过大量购买美国众议院特别情报委员会广告,通过详细的人口学统计数据分析,为Instagram的用户提供符合用户背景喜好的广告,Instagram显然在其中为这些不法分子提供了便利条件。
与之类似的还有谷歌和亚马逊公司,它们很容易基于用户签订的同意服务协定积累大量的用户数据。当你使用谷歌搜索时,谷歌很容易通过识别用户的IP地址知道用户具体的物理位置。当你使用Android系统的手机,谷歌助手时,谷歌公司完全可以绘制出用户一天的活动范围。值得注意的是,谷歌一旦将触角伸向个人健康领域,汇集用户的个人健康数据,完全可以比保险公司更准确的预测用户的寿命。即便你关掉Chrome,删除浏览器cookies(储存在用户本地终端上的数据),谷歌仍然可以根据IP地址获取数据。
当你在亚马逊上购物时,不要忘记亚马逊可以根据用户姓名、年龄、地点、购物的喜好等等绘制出用户精准肖像。
Facebook只是“数据垄断巨头”之一,不同的是Facebook比谷歌拥有更多的用户在线生活数据,比如用户的爱好和观点。相关数据显示,美国有大约68%的成年人使用Facebook,超过三分之二的用户会每天通过网站或者APP查看Facebook。Facebook潜在无形的巨大人际社交网络已经使得人们沉浸其中无法摆脱Facebook的“监控”。
AI是潘多拉盒子?
数据智能是AI的一个重要研究领域,数据分析和数据挖掘是基础,数据分析和数据决策是细分。也就是说人工智能研究领域中很大一部分是开发数据并尽可能有效解决优化这些问题的算法,以闭环的形式实现对某些现象的完全控制。
3月22日,谷歌研究员François Chollet在推特上表示,Facebook事件的核心不仅仅是隐私泄露和缺乏信任,而是Facebook运用AI的能力,并陷入了“极权主义的困境”,他说:“我们正在研究一个强大的群体,即建立超过二十亿人次,精细入微的心理图谱,进而进行大规模的行为操纵试验。最终是为了开发世界上最先进的AI技术,说实话,这件事真是让我害怕”。
其实早在2013年,斯坦福研究员Michael Kosinski公布的白皮书就显示,AI仅仅利用Facebook的数据就可以很好的预测一个人的人格特征,比人类自己更加了解自己。
任何数据库都有可能被滥用,资深计算机学家,GNU操作系统的创始人Richard Stallman曾说:“唯一不危险的数据库就是永远不收集数据的数据库”。
目前来看,科技公司例如Twitter等高度重视AI的研究,特别是深度学习领域,在未来极有可能通过心理战术的研究实现“大规模的人口控制”。因为社会媒体数据是心理学心理学、技术、商业和人文等众多研究领域的丰富信息来源。如果完全通过法律禁止任何管理系统,无论是公司,非营利组织,还是公共机构使用收集数据,则可能从一个极端走向了另一个极端。
技术的发展是人类“生存发展需求”以及“社会性的需求”。谷歌CEO施密特曾经表示,技术本身是中立的,其作用发挥的如何取决于社会如何管理技术。准确的说就是取决于政府和人们如何使用技术。作为AI技术的使用者,背负着如何在“伦理道德”的框架下合理的应用AI。
数据监管一直是悬在各国管理者头上的“达摩克利斯之剑”,2013年美国著名的“棱镜门”事件敲响了各国数据保护的警钟,事实上,如何确保数据有效,安全的流动一直是一个难题。在这个过程中我们需要建立一个政府和企业联动,建立开放共生,利益边界清晰的数据生态。
如果Facebook通过第三方数据公司,预测骚乱,比较青春期期间女孩子们身体的变化,社交网站能否降低缓解人们的压力,是否能够破坏人们良好的社会心理结构。或许,不会陷入今天这样濒临生死抉择,舆论公众一致讨伐的境地。
如何更好的人为干预监管Facebook、谷歌、亚马逊、Instagram之类科技公司的数据,不给AI“作恶”的机会,才是关键。