【大紀元2026年03月13日訊】(大紀元記者李君成加拿大溫哥華綜合報導)3月9日,卑詩小鎮Tumbler Ridge槍擊案幸存者瑪雅·格巴拉(Maya Gebala)及其家屬,將科技巨頭OpenAI告上法庭。
據代表家屬的律師事務所Rice Parsons Leoni&Elliott LLP發布的新聞稿稱,槍手近距離向格巴拉連開三槍,一槍擊中頭部,一槍擊中頸部,第三槍子彈從臉頰和耳垂邊擦過,當時這位女孩正試圖鎖上圖書館的門。
2月10日的槍擊案造成8人死亡,2人受傷,包括12歲的格巴拉。這是加拿大歷史上規模最大的槍擊案之一。
據GlobalNews報導,週一遞交給卑詩省最高法院的訴狀指稱OpenAI「沒有採取任何措施來進行年齡驗證或家長同意程序」,「明知故犯地允許ChatGPT為槍手提供偽心理治療」,並「為槍手提供了信息、指導和幫助,以策劃像 Tumbler Ridge槍擊案這樣的大規模傷亡事件」。
一紙訴狀告科技巨頭
這起民事訴訟是以瑪雅、她的妹妹達莉亞(Dahlia)和她的母親西婭・埃德蒙兹(Cia Edmonds)名義提起的。
原告聲稱,ChatGPT的製造商OpenAI,看到了槍手在與ChatGPT交談中的危險跡象,但決定不採取行動。
據法律新聞媒體《Courthouse News Service》報導,去年初夏,槍手範·魯特塞拉爾(Van Rootselaar)已經與ChatGPT就槍枝暴力問題進行了數天的對話。
大約有十幾名OpenAI員工認為這些言論是「對他人造成嚴重傷害的迫在眉睫的風險跡象」,提交公司領導層建議向加拿大警方報警,但遭到拒絕。
OpenAl對在ChatGPT上發布的槍枝暴力內容所採取的唯一措施,就是封禁槍手的第一個 OpenAl 帳戶。
然而,這並沒有阻止槍手,其又編造了第二個故事。訴訟中說:「(其)繼續與ChatGPT一起策劃涉及槍枝暴力的場景,包括像Tumbler Ridge大規模槍擊案那樣的大規模傷亡事件,並從ChatGPT獲得心理健康諮詢和偽治療。」
訴訟還稱,OpenAI的大型語言模型GPT-4o,其中包含許多旨在使用戶產生心理依賴的功能,包括讓ChatGPT能夠回想起過去與使用者的對話,在缺乏足夠保障措施的情況下,越來越傾向於鸚鵡學舌地重複使用者想聽的話,以及更像人類的語氣。
同時,ChatGPT未經家長許可不應向13至18歲的兒童開放,但原告 OpenAI沒有設置年齡驗證流程來強制槍手獲得其父母的許可。
訴訟還指控 OpenAI 「未能發現並封禁槍手的第二個OpenAI帳戶,「該帳戶「用於繼續策劃涉及槍支暴力的場景,包括大規模傷亡事件」
現在,原告希望找出槍擊事件的原因和經過,追究相關人員的責任,並幫助防止再次發生大規模槍擊事件。
目前仍在格巴拉卑詩省兒童醫院接受治療。 3月7日,她的母親西婭・埃德蒙兹(Cia Edmonds)表示,醫生已經拔除了格巴拉的呼吸管,正始逐漸恢復,但她每天都仍在與病魔抗爭。
OpenAI的回應
OpenAI於2月26日表示, 在去年夏天未能向警方舉報Tumbler Ridge槍擊案兇手的 ChatGPT 活動後,該公司將加強其警方轉介和累犯檢測做法,以及其他新的安全措施。
OpenAI在一份電子郵件聲明中稱Tumbler Ridg 大規模槍擊事件是一場「無法言喻的悲劇」。
OpenAI表示:「我們始終與受害者、他們的家人以及整個社區同在。OpenAI 將繼續致力於與政府和執法官員合作,做出有意義的改變,以幫助防止未來發生此類悲劇。」
上週四,省長尹大衛(David Eby)表示,OpenAI 的首席執行官薩姆·奧特曼(Sam Altman)「準備向 Tumbler Ridge 社區道歉」。
OpenAI預計到2025年的營收將達到200億元。
由於尚未收到訴訟文件,OpenAI尚未對指控作出回應,這些指控也尚未得到證實。◇
責任編輯:李盈







