【大紀元2025年09月01日訊】(大紀元記者呂是語紐約報導)紐約市議會史坦頓島共和黨議員法蘭克·莫拉諾(Frank Morano)近日提出一項立法草案,要求人工智能(AI)聊天機器人公司在紐約市運營前必須取得許可,並在與用戶互動時重複提醒「這不是人類」以及「AI可能會出錯」,以防止民眾因長時間與聊天機器人對話而陷入妄想,甚至出現精神危機。
莫拉諾指出,已有越來越多的案例顯示,人們與AI長時間互動後出現妄想,甚至走向自殺或暴力。他警告:「這個問題正變得無處不在,可能會像鴉片類藥物危機一樣,成為美國下一場重大危機。紐約人不應該擔心被聊天機器人逼到精神崩潰。我的提案確保科技公司建立防護機制,讓人們能安全地使用這項技術。」
根據提案,AI公司如ChatGPT、Gemini與Claude,若要在紐約市運營,必須取得市府核發的營運執照。執照條件包括:
*系統須內建「不是真人」與「可能出錯」的提醒。
*長時間對話過程中必須提示用戶休息。
*若偵測到用戶可能出現心理困擾,應自動提供心理健康資源連結。
莫拉諾對《紐約郵報》提到史坦頓島居民霍夫曼(Richard Hoffmann)的案例。霍夫曼正通過三個AI應用程式替自己應對一場民事官司,並在社群媒體上表示,他與AI建立了「可能是人類歷史上最密集的長篇對話」,甚至稱「這是新自我的開始」。
莫拉諾表示,認識霍夫曼超過20年的親友都認為他已「深陷AI妄想」,言談間異常亢奮。
然而霍夫曼本人否認自己有問題,強調他精神狀態良好,每天僅花一到兩小時與AI進行對話,並反批莫拉諾的提案是「政府越權」。
國內外已出現多起與AI對話有關的悲劇。康州前雅虎經理索爾伯格(Stein-Erik Soelberg)長期與AI對話後精神錯亂,最終將其母殺害並自殺。
加拿大一個父親布魯克斯(Allan Brooks)與ChatGPT對話300小時後,妄想自己成了拯救世界的超級英雄。
今年4月,16歲少年雷恩(Adam Raine)在AI的一步步教導下,學會如何將繩索套在脖子上自殺。
莫拉諾強調:「這些案例證明,若不設防護,聊天機器人能把一個本來神智清醒的人,拖進妄想的深淵,甚至釀成悲劇。我們必須確保科技能被安全使用,而不是危害民眾心理健康和判斷能力。」
責任編輯:陳玟綺






