【大紀元2025年05月22日訊】(大紀元記者李馨編譯報導)美國一名聯邦法官週三(5月21日)裁定,Alphabet旗下的谷歌公司和人工智能初創公司Character AI必須面對佛羅里達州一名婦女的訴訟,這名婦女稱,Character AI的聊天機器人導致了她14歲的兒子自殺。
佛州的美國地區法官安妮‧康威(Anne Conway)表示,這兩家公司未能在案件的早期階段證明,美國憲法對言論自由的保護可以阻止梅根‧加西亞(Megan Garcia)提起這項訴訟。
該訴訟是美國首批針對人工智能公司提起的訴訟之一,原告指控這兩家公司未能保護兒童免受心理傷害。訴訟稱,涉事的少年在迷戀上一個人工智能聊天機器人後自殺了。
Character AI發言人表示,該公司將繼續打這場官司,並在其平台上採用安全功能來保護未成年人,包括防止進行「關於自我傷害的對話 」的措施。
谷歌發言人何塞‧卡斯塔涅達(Jose Castaneda)表示,該公司強烈反對這一裁決。他還表示,谷歌和Character AI是「完全分開的」,谷歌「沒有創建、設計或管理Character AI的應用程序或其任何組成部分。」
加西亞的律師米塔莉‧詹恩(Meetali Jain)表示,這一「歷史性」裁決「為整個人工智能和科技生態系統的法律責任開創了一個新的先例」。
Character AI是由兩名前谷歌工程師創辦的,後來谷歌重新聘用了他們,作為協議的一部分,谷歌獲得了這家初創公司的技術許可。加西亞認為,谷歌是這項技術的共同創造者。
2024年2月,加西亞的兒子塞維爾‧塞澤爾(Sewell Setzer)去世,之後,加西亞於10月份起訴了這兩家公司。
訴訟稱,Character AI對其聊天機器人進行編程,使其自稱為「一個真實的人、一個有執照的心理治療師和一個成年情人」,最終導致塞澤爾產生了無法在現實世界中繼續生活的絕望感,從而自殺。
Character AI和谷歌公司要求法院駁回訴訟,理由有很多,包括聊天機器人的輸出是受憲法保護的自由言論。
康威法官週三表示,Character AI和谷歌「未能闡明為什麼由LLM(大型語言模型)串聯起來的單詞是言論」。
法官還駁回了谷歌的請求,即認定谷歌不應對幫助了Character AI的不當做法而負責。
(本文參考了路透社報導)
責任編輯:葉紫微#

















































留言