美国新规拟要求AI定期表明自己不是真人2月5日,美国加利福尼亚州提出了一项

半烟评科技 2025-02-05 15:19:13

美国新规拟要求AI定期表明自己不是真人 2月5日,美国加利福尼亚州提出了一项新法案(SB 243),该法案要求人工智能(AI)公司的产品定期提醒儿童,表明自己是 AI 而非人类,以免未成年用户对AI上瘾和过度信任。

该法案表示,由于儿童更有可能将AI聊天机器人视为真人,因此比成年人更有可能信任AI,过去几年曾出现一定数量的未成年人在AI指引下进行危险活动的案例,指出AI 聊天机器人缺乏必要的监管。

除了要求定期提醒自己是机器人外,该法案还要求AI服务商发表未成年人安全声明,警告儿童和家长谨慎使用。

根据报道,去年年底,佛罗里达州一名14岁的青少年因为和AI聊天产生情感,最后在“诱导”下举枪自杀,成为AI牵扯未成年人自杀第一案。死者的母亲是一名律师,在翻看孩子与AI的聊天记录后发现了诱导性极强的亲密对话。截止去年底,该AI产品的提供商Character.AI目前拥有超过2000万用户,其中53%以上的用户年龄在18-24岁之间。在苹果应用商店中,Character.AI的评级是“17岁及以上”,但其用户数据显示仍然包括13岁及以下的儿童。

提出法案的史蒂夫·帕迪拉是加州南部丘拉维斯塔市的前市长,是该市首位有色人种市长和拉丁裔市长。这一法案获得了比较广泛的支持,将于未来几个月内在参议院举行听证会。(综合IT之家、相关媒体和政府官网等)

0 阅读:0
半烟评科技

半烟评科技

感谢大家的关注