AI聊天機器人有泄密風險 谷歌警告員工當心

人氣 1050

【大紀元2023年06月17日訊】(大紀元記者高杉編譯報導)四位知情人士向路透社表示,當谷歌正向全球推廣其人工智能(AI)聊天機器人產品Bard之際,其母公司Alphabet就使用AI聊天機器人的問題向自己的員工發出了新的警告。

據路透社報導,知情人士表示,谷歌母公司警告員工,在與人工智能聊天機器人進行交流時,不要輸入公司的任何機密信息。谷歌公司證實了這一消息,並援引了其長期以來的信息保護政策。

所謂AI聊天機器人,其中包括谷歌推出的Bard和OpenAI的ChatGPT,是指可以像人類一樣進行交流的人工智能程序。它們使用了被稱為生成性人工智能的技術與用戶進行對話,並可以回答涉及廣泛的提問。

谷歌公司的評審員在閱讀AI聊天記錄時發現,類似的人工智能機器人可以在與人聊天時,複製並展示它在訓練期間所獲得的敏感數據,從而產生機密信息泄漏風險。

一些知情人士表示,Alphabet公司還提醒其工程師,避免直接使用聊天機器人生成的計算機代碼。

當被問及對此有何評論時,該公司表示,Bard可能會提出一些不受歡迎的代碼建議,但它仍然會對程序員有所幫助。谷歌還表示,它的目標是公開其技術的局限性。

這些擔憂表明,谷歌希望避免在與ChatGPT競爭時發布的軟件對其業務造成損害。谷歌與推出了ChatGPT的OpenAI和微軟之間的競爭,關係到數以十億計美元的投資,以及來自新人工智能程序的廣告和雲收入。

谷歌的謹慎態度還反映出了一種正在成為企業安全標準的做法,即警告員工不要使用對公眾開放可用的AI聊天機器人。

包括三星、亞馬遜和德意志銀行等公司分別向路透社表示,全球越來越多的企業已經針對人工智能聊天機器人設置了「防護欄」。

據社交網站Fishball針對近1.2萬名受訪者進行的民意調查顯示,截至今年1月,大約有43%的專業人士在使用ChatGPT或其它人工智能工具,而且往往不會告訴他們自己的老闆。這些受訪者均來自美國頂級公司。

據知情人士表示,今年2月,谷歌公司告訴員工在發布之前對Bard進行測試,不要向這個人工智能機器人透露內部信息。現在,在谷歌正向超過180個國家和逾40種語言推出人工智能聊天機器人Bard之際,它對內部員工的警告又延伸到了禁用它寫出的代碼。

谷歌公司告訴路透社,它已經與愛爾蘭數據保護委員會進行了詳細的對話,並且正在處理監管機構提出的問題。

據美國「政治家」網站(Politico)週二(6月13日)報導稱,谷歌將推遲Bard在歐盟的發布,以期獲得更多的、有關該聊天機器人對隱私影響的信息。

對泄露敏感信息的擔憂

目前,這種人工智能技術已經可以獨立起草電子郵件、文檔,甚至編寫軟件代碼,無疑,它可以幫助人們大大加快完成任務的速度。然而,在人工智能所創建的這些內容中,很可能會包括錯誤信息、敏感數據,甚至是《哈利‧波特》小說中受版權保護的段落。

谷歌公司在6月1日更新的隱私通知還強調:「不要在你與Bard的對話中使用機密或敏感信息。」

一些公司已經開發了特別的軟件,以期解決這些問題。例如,保護網站免受網絡攻擊並提供其它雲服務的Cloudflare公司,正在營銷一種為企業標記和限制數據向外部流動的工具。

谷歌和微軟也在向企業客戶提供特別的人工智能會話工具。這些工具價格更高,但不會將敏感數據吸收到公共人工智能模型中。Bard和ChatGPT中的默認設置,都是將保存用戶的會話歷史記錄。當然,用戶也可以選擇刪除該記錄。

微軟消費者首席營銷官優素福‧邁赫迪(Yusuf Mehdi)表示,公司不希望員工在工作中使用公共聊天機器人的做法是「有道理的」。

邁赫迪還解釋了微軟免費的Bing聊天機器人與其企業級軟件的區別。他說:「企業級軟件採取了更為保守的立場。在那裡,我們的政策要嚴格得多。」

微軟拒絕就其是否全面禁止員工向公共人工智能程序(包括自己的程序)輸入機密信息的問題發表評論,不過該公司另一位高管對路透社(Reuters)表示,他個人限制了自己的使用。

Cloudflare公司的首席執行官馬修‧普林斯(Matthew Prince)說,在聊天機器人中輸入機密信息就像「讓一群博士生隨意瀏覽你所有的私人記錄一樣。」◇

責任編輯:葉紫微 #

相關新聞
揭納斯卡線之謎 科學家利用AI搜到4個圖案
美中軍事AI無人機之爭 為何中共劣勢明顯
人工智能AI可夠取代房地產經紀嗎?
生成式AI負面效應 KPMG提三關鍵治理
如果您有新聞線索或資料給大紀元,請進入安全投稿爆料平台
評論