美國社會

美法官:少年因AI自殺 谷歌必須面對訴訟

美國一名聯邦法官裁定,谷歌公司和人工智能初創公司Character AI必須面對佛州一起關於青少年自殺的訴訟。圖為位於矽谷山景市(Mountain View)Google谷歌總部的門前的標誌。(李奧/大紀元)

【大紀元2025年05月22日訊】(大紀元記者李馨編譯報導)美國一名聯邦法官週三(5月21日)裁定,Alphabet旗下的谷歌公司和人工智能初創公司Character AI必須面對佛羅里達州一名婦女的訴訟,這名婦女稱,Character AI的聊天機器人導致了她14歲的兒子自殺。

佛州的美國地區法官安妮‧康威(Anne Conway)表示,這兩家公司未能在案件的早期階段證明,美國憲法對言論自由的保護可以阻止梅根‧加西亞(Megan Garcia)提起這項訴訟。

該訴訟是美國首批針對人工智能公司提起的訴訟之一,原告指控這兩家公司未能保護兒童免受心理傷害。訴訟稱,涉事的少年在迷戀上一個人工智能聊天機器人後自殺了。

Character AI發言人表示,該公司將繼續打這場官司,並在其平台上採用安全功能來保護未成年人,包括防止進行「關於自我傷害的對話 」的措施。

谷歌發言人何塞‧卡斯塔涅達(Jose Castaneda)表示,該公司強烈反對這一裁決。他還表示,谷歌和Character AI是「完全分開的」,谷歌「沒有創建、設計或管理Character AI的應用程序或其任何組成部分。」

加西亞的律師米塔莉‧詹恩(Meetali Jain)表示,這一「歷史性」裁決「為整個人工智能和科技生態系統的法律責任開創了一個新的先例」。

Character AI是由兩名前谷歌工程師創辦的,後來谷歌重新聘用了他們,作為協議的一部分,谷歌獲得了這家初創公司的技術許可。加西亞認為,谷歌是這項技術的共同創造者。

2024年2月,加西亞的兒子塞維爾‧塞澤爾(Sewell Setzer)去世,之後,加西亞於10月份起訴了這兩家公司。

訴訟稱,Character AI對其聊天機器人進行編程,使其自稱為「一個真實的人、一個有執照的心理治療師和一個成年情人」,最終導致塞澤爾產生了無法在現實世界中繼續生活的絕望感,從而自殺。

Character AI和谷歌公司要求法院駁回訴訟,理由有很多,包括聊天機器人的輸出是受憲法保護的自由言論。

康威法官週三表示,Character AI和谷歌「未能闡明為什麼由LLM(大型語言模型)串聯起來的單詞是言論」。

法官還駁回了谷歌的請求,即認定谷歌不應對幫助了Character AI的不當做法而負責。

(本文參考了路透社報導)

責任編輯:葉紫微#