大紀元

美政府與科技巨頭合作 於AI模型發布前測評

美政府與科技巨頭合作 於AI模型發布前測評
示意圖,圖為屏幕上呈現微軟與AI軟件ChatGPT的標誌。(LIONEL BONAVENTURE/AFP via Getty Images)
趙鳳華
2026-05-06 20:32 中港台時間
人氣 233

【大紀元2026年05月06日訊】(大紀元記者趙鳳華綜合報導)週二(5日),美國人工智能(AI)標準與創新中心(CAISI)宣布與前沿AI實驗室簽署新協議,以確保美國政府能在人工智能模型對外公開前進行國家安全測試與評估。

根據5月5日發布的新聞稿,CAISI與Google DeepMind、微軟及全球首富馬斯克旗下的xAI簽署新的合作協議,這將使CAISI能在人工智能模型部署前進行測試及其它研究,以便更精準地評估前沿AI能力,從而提升人工智能的安全水準。

美國商務部國家標準與技術研究院(NIST)轄下的CAISI在公告中表示,這些協議是在先前宣布的與OpenAI及Anthropic達成的合作夥伴關係基礎上建立的,相關條款已重新協商,以反映商務部長對CAISI的指示以及《美國人工智能行動計劃》。

公告指出,在商務部長盧特尼克(Howard Lutnick)的領導下,CAISI已被指定為美國政府與業界的主要聯絡窗口,以促進與商用人工智能系統相關的測試、合作研究及最佳實踐。

迄今為止,CAISI已完成超過40項此類評估,其中包括尚未公開的尖端模型。

政府擴大AI監管

「獨立且嚴謹的測量科學對於理解前沿人工智能及其對國家安全的影響至關重要」,CAISI主任克里斯‧福爾(Chris Fall)說,「在這個關鍵時刻,擴大產業合作有助於我們提升以公共利益為導向的工作。」

這些協議旨在促進政府與這些科技巨頭的資訊共享,推動這些頂尖AI實驗室進行自願性的產品改進,並確保政府對AI的能力以及國際AI競爭現狀有清晰的了解。

公告中說,為了全面評估與國家安全相關的AI能力與風險,開發者經常向CAISI提供已降低或移除安全防護措施的模型;跨部門的技術人員可參與評估工作,並通過由CAISI召集的「AI對國家安全風險測試專案小組」(TRAINS)定期提供反饋。

TRAINS由跨機構專家組成,致力於研究AI技術引發的國家安全議題。CAISI與科技巨頭簽署的這些新協議支持在機密環境中進行測試,起草的協議已預留必要的彈性,以便迅速因應AI的持續發展。

起因

據消費者新聞與商業頻道(CNBC)報導,白宮正考慮成立一個新的AI工作小組,以探討潛在的監督程序,包括在AI模型向公眾發布前進行審查。起因是AI科技巨頭Anthropic上個月宣布推出一款功能強大的新模型Claude Mythos Preview,引起了政府部門的關注。

Anthropic表示,Mythos在識別軟件中的弱點和安全漏洞方面表現出色,因此決定將該模型的部署範圍僅限定在少數精選企業,作為「Project Glasswing」新網絡安全計劃的一部分。

在Mythos發布後不久,Anthropic執行長達里奧‧阿莫迪(Dario Amodei)就與川普政府高級官員在白宮會面,商討該模型相關事宜。

值得關注的是,這次會面正值美國戰爭部將Anthropic列為供應鏈風險之後,這意味著該公司研發的科技可能對美國國家安全構成風險。

OpenAI也在上週宣布,將向所有經審核的政府層級開放其最先進的人工智能模型,以便預先防範由AI引發的安全風險。

微軟負責人工智能事務的首席官員娜塔莎‧克拉姆普頓(Natasha Crampton)在一份聲明中表示,雖然微軟定期測試自家模型,但CAISI提供了額外的「技術、科學及國家安全專業知識」。

責任編輯:李天琦#

如果您有新聞線索或資料給大紀元,請進入安全投稿爆料平台

留言

  • 大紀元保留刪除惡意留言的權利,包括低俗、誤導或攻擊信仰等內容
本網站圖文內容歸大紀元所有, 任何單位及個人未經許可,不得擅自轉載使用。
Copyright© 2000 - 2026 The Epoch TimesAssociation Inc.All Rights Reserved.