【大紀元2023年05月26日訊】(大紀元記者夏楚君澳洲悉尼編譯報導) 一位澳洲人工智能專家警告說,騙子們正越來越多地利用人工智能(AI)語音克隆技術,冒充受害者親人,騙取大筆錢財。
悉尼科技大學(UTS)電氣和數據工程學院副教授阮迪普(Deep N Nguyen)博士說,人工智能模型可以從相對較短的語音片段中重現發聲頻率,並將片段串成連貫的句子。
他告訴9號新聞網:「一些人工智能模型和算法只需要一分鐘或更短的錄音,就足以合成一個相當高質量的語音克隆文件。」
他補充說,先進的人工智能模型和算法可以很好地合成一個聲音,「普通人很難區分克隆的和真實的聲音」。
「一些人工智能模型誇口,與真實的聲音相比,它們的語音克隆可以達到99%的準確性。」
「有了這1%的差異,對於人類來說,將很難識別出其中的聲音差別。」 他說。
阮迪普警告說,騙子們越來越多地利用新興技術騙取大筆錢財。
阮迪普說,「海外已經發生許多案件,如在英國、阿拉伯聯合酋長國、香港。」
「語音克隆肯定是一種高風險……毫無疑問,它(語音克隆騙局)將來到澳洲。」
阮迪普說,理論上,騙子可以使用現有的社交媒體視頻,並通過人工智能語音克隆器來重新創建一個聲音。
「無論我們通過Facebook、TikTok、YouTube在網上分享什麼,我們的聲音、照片和視頻,都有可能被深度造假技術用來訓練人工智能模型,用於克隆語音目的。」
「隨著人工智能模型的不斷快速發展,(騙子)需要越來越少的數據,合成足夠接近真實的聲音,用於欺詐。」
他提醒說,「要謹慎分享個人數據。」
他還補充說,人們應該警惕任何要求匯款的電話,不管它是否來自親人。
責任編輯:宗敏青
了解更多澳洲即時要聞及生活資訊,請點擊 dajiyuan.com.au
(本文未經許可不得轉載或建立鏡像網站)