【大纪元2025年05月22日讯】(大纪元记者李馨编译报导)美国一名联邦法官周三(5月21日)裁定,Alphabet旗下的谷歌公司和人工智能初创公司Character AI必须面对佛罗里达州一名妇女的诉讼,这名妇女称,Character AI的聊天机器人导致了她14岁的儿子自杀。
佛州的美国地区法官安妮‧康威(Anne Conway)表示,这两家公司未能在案件的早期阶段证明,美国宪法对言论自由的保护可以阻止梅根‧加西亚(Megan Garcia)提起这项诉讼。
该诉讼是美国首批针对人工智能公司提起的诉讼之一,原告指控这两家公司未能保护儿童免受心理伤害。诉讼称,涉事的少年在迷恋上一个人工智能聊天机器人后自杀了。
Character AI发言人表示,该公司将继续打这场官司,并在其平台上采用安全功能来保护未成年人,包括防止进行“关于自我伤害的对话 ”的措施。
谷歌发言人何塞‧卡斯塔涅达(Jose Castaneda)表示,该公司强烈反对这一裁决。他还表示,谷歌和Character AI是“完全分开的”,谷歌“没有创建、设计或管理Character AI的应用程序或其任何组成部分。”
加西亚的律师米塔莉‧詹恩(Meetali Jain)表示,这一“历史性”裁决“为整个人工智能和科技生态系统的法律责任开创了一个新的先例”。
Character AI是由两名前谷歌工程师创办的,后来谷歌重新聘用了他们,作为协议的一部分,谷歌获得了这家初创公司的技术许可。加西亚认为,谷歌是这项技术的共同创造者。
2024年2月,加西亚的儿子塞维尔‧塞泽尔(Sewell Setzer)去世,之后,加西亚于10月份起诉了这两家公司。
诉讼称,Character AI对其聊天机器人进行编程,使其自称为“一个真实的人、一个有执照的心理治疗师和一个成年情人”,最终导致塞泽尔产生了无法在现实世界中继续生活的绝望感,从而自杀。
Character AI和谷歌公司要求法院驳回诉讼,理由有很多,包括聊天机器人的输出是受宪法保护的自由言论。
康威法官周三表示,Character AI和谷歌“未能阐明为什么由LLM(大型语言模型)串联起来的单词是言论”。
法官还驳回了谷歌的请求,即认定谷歌不应对帮助了Character AI的不当做法而负责。
(本文参考了路透社报导)
责任编辑:叶紫微#

















































留言