AI如何监管?OpenAI支持“加水印”马斯克希望强化安全测试

Hawk Insight 2024-08-28 14:55:49

随着人工智能的快速发展,对人工智能监管的讨论也在逐渐升温。美国加州作为许多人工智能企业的孵化地,当地对人工智能的监管提案也是层出不穷。不过,对于AI监管的强度,不同企业有不同的看法。

OpenAI、微软等支持对AI内容“加水印”

据媒体报道,OpenAI、Adobe和微软等已表示支持加州的AB 3211法案——加州数字内容来源标准(California Digital Content Provenance Standards)。

AB 3211法案要求科技公司对AI生成的照片、视频和音频片段的元数据(Metadata)中添加水印。当前,已有不少AI公司这样做了,但大多数人不会阅读元数据。因此,AB 3211法案还要求大型在线平台(如Instagram或X)以普通观众可以理解的方式标记AI生成的内容。

法案还提到,从2026年起,大型在线平台需每年编制一份透明度报告,以说明对其平台上欺骗性合成内容的审核情况。

OpenAI、Adobe和微软都是内容出处和真实性联盟(Coalition for Content Provenance and Authenticity)的成员,该联盟帮助创建了C2PA元数据,这是一种被广泛使用的人工智能生成内容标记标准。

一个代表Adobe、微软和美国最大软件制造商的贸易团体曾在4月份反对AB 3211法案,并在致加州立法者的一封信中称该法案“不可行”且“负担过重”。然而,该法案的修正案似乎改变了他们的想法。

在AB 3211法案的修正案中可以看到,行政处罚的金额做了修改。原法案中提到,有关部门将对每次故意或因严重疏忽行为而导致的违规行为处以最高500,000美元的行政处罚,修正案中则将行政处罚的最高金额改为100,000美元。

马斯克支持对AI实施更严格安全测试

与此同时,人工智能公司xAI的创始人马斯克却在X上发帖表示支持加州另一项有关人工智能的SB 1047法案——前沿人工智能模型安全创新法案(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act)。

“这是一个艰难的决定,会让一些人不高兴,但综合考虑,我认为加州应该通过SB 1047人工智能安全法案。”马斯克表示,“20多年来,我一直倡导对人工智能进行监管,就像我们监管任何对公众有潜在风险的产品/技术一样。”

SB 1047法案由加州参议员Scott Wiener于2月份提出,法案提到将对人工智能公司实施严格的安全协议。Wiener曾表示,该法案的目标是“为最强大、最大规模的人工智能系统的开发者建立清晰、可预测、常识性的安全标准,确保大规模人工智能系统的安全发展”。

SB 1047法案将适用于开发花费超过1亿美元用于训练或使用高水平计算能力的模型的公司。这些公司将被要求在公开使用新技术之前对其进行安全测试,且必须在其模型中构建“完全关闭”功能,并对所有技术应用负责。

该法案还为人工智能开发者制定了法律标准,加州总检察长可以起诉公司的“非法行为。同时法案还为举报人制定了保护措施,并成立了一个委员会来设定人工智能模型的计算限制并发布监管指导。

SB 1047法案是美国最两极分化的人工智能政策提案之一。该法案遭到Meta和OpenAI等科技巨头的猛烈批评,他们认为这个法案含糊不清、繁琐,会对开源模型产生寒蝉效应。

Meta认为该法案将阻止开源人工智能的发布,因为“无法在不承担无法承担的法律责任的情况下开源模型”。Meta还表示,这很可能会对小型企业生态系统产生影响,降低他们使用开源模型来创造新的工作岗位、业务、工具和服务的可能性。

根据加州立法数据库,加州立法者试图在本立法季提出65项涉及人工智能的法案,其中包括确保所有算法决策均无偏见的措施,以及保护已故个人的知识产权免受人工智能公司利用的措施。不过,许多法案已经流产。

由于获得科技巨头的支持,上述的AB 3211和SB 1047法案受到的关注比较多,目前两个法案均处于“进行中”状态,预计本月底的加州议会上会对这两项法案进行最终投票。

0 阅读:0