【大紀元2026年02月25日訊】(大紀元記者吳旻洲台灣台北報導)近年生成式人工智慧(AI)席捲全球,已澈底改變各行各業的運作方式。前科技部政務次長林一平警告,生成式AI衍生出的「AI曼德拉效應」,已經進入危險的新階段,當AI生成的虛假內容數量超過真實資訊時,搜尋引擎甚至可能將錯誤答案置於前列,世界將進入「真相倒置」時代。
所謂的「曼德拉效應」(Mandela Effect),是指大眾對特定事件、圖像持有相同但錯誤的記憶,而當多人共同分享一個錯誤記憶時,更會加深該錯誤的可信度。此名詞源於許多人「記得」南非總統曼德拉於 1980年代死於監獄,但事實上他於2013年才去世。
「生成式AI的出現,讓這個(AI的曼德拉效應)現象進入危險的新階段」。林一平表示,過去的錯誤記憶源於人腦的模糊回想,如今卻可能來自精心製作的數位幻象。
他表示,AI能輕易生成高度擬真的內容,例如「C-3PO全銀色劇照」或「皮卡丘黑色尾巴百科條目」。這些虛構細節真實得足以欺騙未經查證的觀者,一旦在社群媒體病毒式擴散,說服力遠超過去的謠言。
「更可怕的是,AI生成的不只是單一圖片或文字,而是包含照片、影片與文章的完整『證據鏈』,讓虛假記憶看似天衣無縫」。林一平表示。
「同時,AI內容正以驚人速度汙染資訊生態」。林一平說,當人們試圖驗證記憶時,搜尋結果往往充斥大量口徑一致的錯誤答案,形成資訊迴音室。社群演算法又偏好新奇與爭議性內容,AI製造的謠言正符合這些條件,於是錯誤訊息在推送與點擊間不斷循環,甚至被推升至主流討論。
「更令人憂心的是,AI不僅能放大既有錯誤,還能憑空創造從未存在的記憶」。林一平表示,若有人利用AI虛構一個九〇年代的卡通角色,生成動畫片段、廣告影像與週邊商品照片,再編造討論貼文。
他表示,這些充滿懷舊元素的內容迅速走紅,10年後,當年的孩童已成年,腦中仍保留模糊印象。當有人發問「你還記得這個卡通嗎?」便會有大批網友響應,甚至補充劇情細節。
「一個根本不存在的角色,竟成為集體的童年回憶」。林一平表示,AI已不是錯誤的放大器,而是記憶的原始編造者,繞過既有事實,直接向集體意識注入從未發生過的過去。
他強調,這絕非單純趣聞,而是深具社會風險的徵兆。當偽造記憶結合擬真圖像、詳盡文本和龐大社群互動,真實與虛構的邊界將越加模糊。它可能動搖人們對歷史的理解,使司法證據效力大打折扣,甚至撼動政治共識。
「如果某個重大事件被AI大規模改寫,數百萬人因而誤解,後果難以想像」。林一平警告,更極端的情境是,當AI生成的虛假內容數量超過真實資訊時,搜尋引擎甚至可能將錯誤答案置於前列。此時,真相反而成了需要額外努力證明的「少數說法」,世界將進入一個「真相倒置」的時代。
為防範這種事態的發生,社會必須建立數位免疫系統。林一平表示,技術上需要更精準的檢測工具,辨識內容是否為AI生成。制度上,平台應透明標註AI內容,並對惡意散布者設立規範;教育上,更需強化數位素養,培養理解演算法運作的能力,養成交叉驗證與批判思考的習慣。
而在個人層面,林一平認為,每位使用者都應保持警覺。「我們必須追溯訊息來源,不輕信單一說法,也不要因『眾人皆信』就放下懷疑」。面對任何看似「眾所周知」的資訊,都應該問3個問題:來源是什麼?是否有可靠第三方驗證?是否符合基本邏輯與常識?
「AI的曼德拉效應提醒我們,過去不再是堅固不動的參考點,而是隨著數位技術持續被改寫的場域」。林一平強調,在這個由演算法與幻象交織的記憶迷宮裡,「真相的價值從未如此珍貴」。當記憶本身都能被製造,守護真實便成為每個人的責任,而我們的選擇,將決定未來世代如何理解過去、認識現在。
責任編輯:陳真



