大紀元

專家警告:AI在「滲透」人類的用詞與行為

專家警告:AI在「滲透」人類的用詞與行為
2025年4月1日,一部顯示ChatGPT應用程式的手機。(Oleksii Pydsosonnii/大紀元)
2025-09-04 13:00 中港台時間|09-06 24:22 更新
人氣 739
0:00
Headphone icon聽更多新聞請至聽紀元平台

【大紀元2025年09月04日訊】(大紀元記者吳瑞昌編譯報導)隨著人們使用AI的頻率與領域不斷擴大。美國科學家發現,AI正在潛移默化地改變人們日常用詞,使得原本多元且個人化的用詞,逐漸地走向統一化。科學家認為這屬於一種「滲透效應」,是由技術本身而非外部環境所引發的改變。

美國佛羅里達州立大學(FSU)計算語言學的研究人員發現,許多Z世代之後的人(1990年代末至2010年代初期出生的人),在廣泛採用AI聊天機器人後,導致他們日常對話中更頻繁的出現「超越」「誇耀」「細緻」「策略性地」和「收穫」等多個詞彙,同時也導致他們個人常用的詞彙逐漸流失。

研究人員將這種改變稱為「滲透效應」。這項研究結果於8月初發表在預印論文網站arXiv上,同時是第一個經過同行評審分析的研究報告,且目前已經被第八屆AI、倫理與社會會議接受。

FSU研究團隊分析了2,210萬個非腳本對話詞彙資料,旨在測試對話式AI系統,是否會影響人們在現實世界中的說話方式。這些資料大多來自Apple、Spotify和YouTube等地方的著名播客與創作者的創作內容。

研究人員發現,人們改變詞彙、詞語使用量的突然增加,並非受到COVID-19病毒產生的變種「Omicron」等全球重大事件的影響,而是受到2022年ChatGPT發布後的影響。

他們經過分析察覺到AI工具常用的術語數量激增,包括「delve」(深入研究)和「intricate」(複雜)等詞彙在教育和學術寫作領域的使用率有所上升,而這類增長在2025年後開始趨緩。另外,「surpass」(超越)和「garner」(收穫)等其它多個詞彙的使用率,也隨著AI使用上升而顯著增加。

他們還發現,這種詞彙的增長主要體現在AI生成文本中,且這些高頻詞彙並未伴隨其同義詞的增長,例如,自ChatGPT推出以來,「underscore」(強調或底線)一詞的使用率不斷上升,但其同義詞「accentuate」(強調)的使用率卻未見增加。

對此,他們擔心AI上游訓練的失調,最終導致人類常用語言使用方式出現改變。這些發現與人類倫理方面的擔憂相呼應,即失衡的AI可能會塑造或改變人類社會原有的道德、價值觀和信念等。

此外,他們還擔心未來會有更多文本與作品,難以真正確定其內容是否由「真人」創作。這將嚴重影響任何依賴自然語言的相關研究(語言學、語言統計學),使研究的結果、真實性出現疑問,並增加研究的複雜性。原因是傳統的自然語言數據,經常被用作人類的認知行為與代理指標。

研究人員指出,AI和社群媒體之間的相似之處。兩者雖然都帶來顯著效益,但隨著時間的推移,會顯現許多具體的危害。他們表示,目前關於AI對人類語言、行為的影響程度研究仍處於起步階段,未來需要更多的時間深入研究與探討其因果關係,方能得出更加精確的研究成果。

佛羅里達州立大學計算語言學助理教授、該研究的首席研究員湯姆‧朱澤克(Tom Juzek)對該校的新聞室表示,「在ChatGPT發布前後,流行口語詞發生了顯著的變化,但同義詞卻沒有太多明顯的變化。」

朱澤克補充道,「這些AI模型確實是有用的工具,且本身具有一些明顯的優勢。不過,也存在一些懸而未決的問題,包括它們是否會對人們的信仰和行為產生一些讓人意想不到的負面影響。」

他接著說,「雖然現在斷言AI的因果關係還為時過早,但目前實驗結果顯示兩者之間存在高度相關性。接下來我們需要進行更仔細的測試,以了解哪些因素真正發生了變化,以及產生變化的原因。」

朱澤克還表示,「這項研究關注的是AI和語言變化的問題。這些語言變化的發生,是因為我們使用了一種工具並重複了它所建議的內容,還是因為AI正在影響我們人類的語言系統?」

人類行為分析師科林‧庫珀(Colin Cooper)告訴《新聞週刊》,「現在真正的危險不是抄襲,而是語言同質化。當我們依賴ChatGPT式的流暢表達時,我們的語言就會開始變得模糊不清。」

他解釋,「雖然AI讓每個人的說話聽起來都很精緻、模板化、安全,但也犧牲了人們原本擁有的語調、質感和真實性。現在我們並非在抄襲AI,而是讓AI把我們改寫成同樣平庸、高效的模子。實際上,AI這種對個性的侵蝕,才是我們最應該擔心的問題。」

責任編輯:林妍#

如果您有新聞線索或資料給大紀元,請進入安全投稿爆料平台

留言

  • 大紀元保留刪除惡意留言的權利,包括低俗、誤導或攻擊信仰等內容
本網站圖文內容歸大紀元所有, 任何單位及個人未經許可,不得擅自轉載使用。
Copyright© 2000 - 2026 The Epoch TimesAssociation Inc.All Rights Reserved.