台灣人工智慧實驗室發布全球首份民主國家協同操作年報

專家:境外勢力操弄認知戰 300萬台人受影響(下)

人氣 803

【大紀元2024年01月19日訊】(大紀元記者鍾元台灣採訪報導)台灣人工智慧實驗室發布「2024年台灣總統大選期間網路訊息操作分析報告」,這是全球首份以AI技術觀察民主選舉資訊操弄的報告。該實驗室創辦人杜奕瑾指出,台灣大選遭境外勢力操弄認知戰,估計有300萬人受影響。

境外勢力干預台灣選舉已是常態,且手段更加細膩、多面向。中華民國中選會1月19日公告總統、副總統當選人為賴清德、蕭美琴;另外,競逐總統、副總統的3組人馬皆可獲得補助金,民眾黨柯盈配可獲得約1.1億元(新台幣,以下同)(約0.03億美金)、民進黨賴蕭配約1.6億元(約0.05億美金)、國民黨侯康配約1.4億元(約0.04億美金)。

接上文:專家:境外勢力操弄認知戰 300萬台人受影響(上)

台灣的經驗提供全球示警

台灣人工智慧實驗室提出警示,過去民主國家以為網路的便利及科技的發展可以幫助民主與多元,但台灣的經驗反而提醒大家,全球在生成式科技的進步與社交媒體方便境外操作後,對數位人權的侵害及境外操作民主情勢變得更加嚴峻。也呼應到全球的數位人權及民主指數,反面隨著科技的進步下降。

台灣人工智慧實驗室觀察2024年台灣大選的操作,提出十項全球民主社會需要特別警惕的事項:

觀察1:生成技術已廣泛用於資訊操弄,文字誤導是最大戰場,闢謠不再有效

杜奕瑾表示,由於事實查核已廣泛被接受。主要的問題不在於假消息而是誤導消息。文字的曲解敘事為大型語言模型參戰後的主要戰場。已觀察到大量文字生成曲解不對稱的宣傳。雖然文字本身並非造假。但透過大量不對稱的宣傳影響民眾喜惡的觀感。

杜奕瑾以台灣缺蛋事件為例表示,利用少量的雞蛋短缺誤導民眾囤蛋,快速生成新戰場讓官方闢謠不再有實質效果,且圖像生成已經用於輔助建立大量虛假帳號頭像。此外,雖然在選舉前已觀察到大量影片生成用於抹黑中,但實際影響效果有限。

觀察2:議題方向由少數幾個主導協同團體掌控

AI觀察台灣選舉操弄報告 揭境外勢力認知戰
台灣人工智慧實驗室(Taiwan AI Labs )以AI人工智慧技術,針對各媒體與社群平台的認知操作狀況進行觀察。(Taiwan AI Labs提供)

雖然有為數眾多的協同團體試圖帶動特定的風向與論述,裡面也包含台灣公關公司,但根據台灣人工智慧實驗室的觀察,只要掌握到少數幾個主導的協同操作群就可以控制主要的操作聲量。以台灣人工智慧實驗室發現的臉書(facebook)前兩大協同群(#61009、#61019)為例,光626個帳戶創造的資訊操弄聲量,在臉書上的總資訊操弄聲量數就占了45.71%。

觀察3:主流協同群並非來自台灣本土

杜奕瑾分析,主導操作輿論的協同團體帳戶群會同時以中英文操作國內外的論述,除了以中文論述攻擊台灣政治人物,也以英文論述操作反美的議題,散播疑美論、抨擊美國總統拜登與美國外交策略。從協同團體操弄帳號使用雙語且攻擊各方政黨等跡象來看,這些協同團體帳號的控制者並非來自台灣本土,就攻擊的方向與對象來說,也不屬於特定政黨,其目的為散播混亂。

他表示,這一類的操作手法常見於一些境外極權專制國家,目的是在民主國家傳播混亂,推動「獨裁比較有效率」的論述。另外可見於美國軍援、台灣引進印度勞工及日本災害救助議題上。這些協同操作帳號遇到台灣友好的國家,會進一步積極抹黑攻擊,試圖製造輿論帶出不支持合作的假象。

最後,他以社群軟體上出現軍官海上浮屍的假消息為例,發現台灣社交媒體有大量帳號被盜現象,台灣人工智慧實驗室也藉由鼓勵帳號被盜的使用者報案來協助調查。由此可知,背後有人系統性地在社交媒體上盜取帳號,經進一步調查發現,這是透過以中國網通設備的後門漏洞做植入VPN為跳板,到社交媒體發表文章。綜合以上操作,不太像是台灣內部公關公司所為,已超出國內公關組織的能力。

觀察4:主流協同群與中共官媒有大量呼應

台灣人工智慧實驗室以在臉書發現的前兩大協同團體(#61009、#61019)為例,在2023年9月至12月期間以非自然方式放大特定論述聲量,值得注意的是大量論述呼應中共官媒的說法(下圖),包括「將台灣推向兵凶戰危險境」「美國不顧台灣人死活」「兩岸經貿架構協議(ECFA)終止影響台灣經濟」等。隨著台灣大選接近,與中共官媒接近的論述也逐步增加,包括持續以戰爭恐嚇台灣,並加大攻擊台灣教育與經濟問題。

AI觀察台灣選舉操弄報告 揭境外勢力認知戰
台灣人工智慧實驗室(Taiwan AI Labs )以AI人工智慧技術,針對各媒體與社群平台的認知操作狀況進行觀察。(Taiwan AI Labs提供)

觀察5:主流協同群大規模影響台灣輿論

台灣人工智慧實驗室表示,網路操作有很大的影響力,例如台灣總統候選人粉絲頁中,大約每六則內容就會看到一則是來自協同團體,尤其現任總統的粉絲頁更多,幾乎每三則就有一則是來自協同團體。圖中藍色線為一般使用者,紅色線為協同團體,從圖表可以發現一般使用者的互動量本來並不高,但是會被協同團體的行為影響,進而也跟著風向增加互動量。

AI觀察台灣選舉操弄報告 揭境外勢力認知戰
台灣人工智慧實驗室(Taiwan AI Labs )以AI人工智慧技術,針對各媒體與社群平台的認知操作狀況進行觀察。(Taiwan AI Labs提供)

觀察6:中資社群平台上的內容有國家支持偏見

台灣人工智慧實驗室也關注中資TikTok(抖音海外版)平台上的協同操作,發現監測期間的操弄言論主要在提及台灣、美國與日本時絕大多數為負面論述;相較協同團體操作群提到中共的論述時,內容則多數為正面,並且強力建立認知意象,包括「讚揚中國(中共)武器強大」及「支持中國(中共)統一台灣」等。

觀察7:中國平台候選人聲量如同已決定特定總統

觀察平台發現,相對於其它平台的協同團體對於各政黨皆有批評,不屬於特定政黨。TikTok 上的資訊操弄行為顯示有明確的政黨傾向,壓倒性支持台灣特定政黨民眾黨參選人,不只網絡聲量主要集中在該名候選人身上,且其論述多為正面,相較於其它兩大黨參選人的非自然網路聲量,皆不到前述參選人的三成,且主要多為負面攻勢。

AI觀察台灣選舉操弄報告 揭境外勢力認知戰
台灣人工智慧實驗室(Taiwan AI Labs )以AI人工智慧技術,針對各媒體與社群平台的認知操作狀況進行觀察。(Taiwan AI Labs提供)

社交平台也開始影響民眾社群所見,無形中挑選觸及的貼文,讓民眾只能看到特定議題或內容。其中正向與負向也明顯不成比例,這與台灣其它平台或美國社交平台相比有很大的不對稱性。因此最近歐盟與美國皆在提倡人工智慧演算法的中立性,其演算法結果的中立性對於民主國家的影響是非常大。

觀察8:主流協同群試圖主導政黨合作的相關言論

從平台上也觀察到這一次在臉書上的兩個主要協同團體(#61009、#61019)在「藍白合」的議題上,明確地操作輿論影響某特定候選人與政黨,明顯且直接企圖影響「藍白合」結果,以達到此協同行為目的。

AI觀察台灣選舉操弄報告 揭境外勢力認知戰
台灣人工智慧實驗室(Taiwan AI Labs )以AI人工智慧技術,針對各媒體與社群平台的認知操作狀況進行觀察。(Taiwan AI Labs提供)

觀察9:網軍大量潛入社區校友社團 適時餵食訊息

協同團體會佯裝身分創建論壇或朋友圈,例如地區社團、校友會、興趣社團等,藉此大型社群連結傳遞訊息,拉近與民眾距離,適時給予相關訊息與回應,進而影響使用者與控制議題,污染某些群體的內容,使其導向特定的方向與結果。這些協同團體也潛入分布在各個台灣新聞媒體的官方頻道裡。

杜奕瑾提醒,民眾在使用這些社交平台或粉絲頁時,需要隨時保持警覺,對於那些奇怪的言論與帳戶,可以適時查核是否為社區真實的成員及言論真實性。

AI觀察台灣選舉操弄報告 揭境外勢力認知戰
台灣人工智慧實驗室(Taiwan AI Labs )以AI人工智慧技術,針對各媒體與社群平台的認知操作狀況進行觀察。(Taiwan AI Labs提供)

觀察10:短影音的影響成為一種趨勢

杜奕瑾表示,這次台灣總統大選中,短影音占很大的影響力。以以哈衝突為例,tiktok上以哈衝突相關的短影音大量出現在各平台,用類似的內容重新創作成看似不同的影片,因此在網路上就會看到單一觀點的內容,導致大眾可能會對某一方會產生認知失衡。

另外,他表示,值得注意的是,早在以哈衝突爆發前幾個月,這類短影音就已經在中資平台出現,虛構兩國之間的衝突內容,且獲得了大量的瀏覽次數。因此可推斷背後有相關預算推動此認知操作,並通過平台作為演練,並以平台使用者協助操作與散播不實訊息。

AI觀察台灣選舉操弄報告 揭境外勢力認知戰
台灣人工智慧實驗室(Taiwan AI Labs )以AI人工智慧技術,針對各媒體與社群平台的認知操作狀況進行觀察。(Taiwan AI Labs提供)

責任編輯:林琮文#

相關新聞
專家分析台灣未來戰略為何關乎全球
台灣大選前夕 中共施放5枚空飄氣球擾台
台灣投票日 中共派8軍機6艘艦2氣球擾台
台灣大選後 專家就新政展望與挑戰分析建言
如果您有新聞線索或資料給大紀元,請進入安全投稿爆料平台
評論