据美国媒体报道,谷歌于 2 月 4 日更新其人工智能道德准则,删除了此前承诺不会将人工智能技术用于武器研发及监控应用的条款。 2018 年谷歌首次发布人工智能原则,明确将武器和监控列为 “不追求的应用领域”,承诺不设计或部署可能造成整体危害的 AI 技术,包括主要目的或实施会导致或直接促成人员伤害的武器或其他技术,以及收集或使用违反国际公认准则的监控信息的技术等。 新原则围绕大胆创新、负责任的开发和部署以及协作流程三个方面。不再提及谷歌不会从事的应用,也不再承诺不将 AI 用于有害目的或武器开发。谷歌表示将在 “可能的整体收益远大于可预见风险” 的领域开发和部署 AI 模型和应用,会采用 “适当的人工监督、尽职调查和反馈机制,以符合用户目标、社会责任和广泛接受的国际法和人权原则”,还会投资 “行业领先的方法来推进安全和安保研究及基准,开创技术解决方案以应对风险,并与生态系统分享我们的经验” 等。 谷歌高级副总裁詹姆斯・马尼卡与 DeepMind 负责人戴密斯・哈萨比斯称,人工智能必须成为 “保护人类” 的工具,企业、政府和机构组织需要在开发 “保护人民、促进全球增长、支持国家安全” 的人工智能方面进行合作。 美国宾夕法尼亚大学政治学教授迈克尔・霍罗威茨表示,谷歌此举证明,包括顶尖人工智能公司在内的美国科技界与国防部门的关系日益密切。有学者指出,AI 的军事化可能会加剧国际间的紧张局势。 前谷歌伦理团队负责人玛格丽特・米切尔尖锐指出,删除 “伤害条款” 等于默许开发杀人技术,这是对数千名工程师道德坚守的背叛。
谷歌AI原则大改,武器与监控限制全撤,意欲何为?
米国记录
2025-02-06 16:55:32
0
阅读:4