当心被AI复制的语音诈骗 应如何反制?

人气 1648

【大纪元2024年10月14日讯】(大纪元记者陈俊村报导)随着人工智能(AI)的迅速发展,它的应用范围越来越广。如果AI应用到好的领域,它可以造福人群,但如果它被坏人误用,那就可能危害全人类。以前听起来像科幻小说的语音复制(voice cloning,或译语音克隆),现在AI已经能轻易完成,而且被犯罪分子用来进行诈骗。针对此类犯罪行为,人们应该如何反制呢?

AI复制的语音被用来行骗

英国网路银行“椋鸟银行”(Starling Bank)在9月发布的新闻稿中指出,歹徒现在能利用AI复制某人说话的声音,而且只要有3秒钟的音讯就能复制,例如从某人在网上发布的影片中撷取出来的语音。

他们随后会查明某人的亲友,并利用AI复制的语音经由电话或语音信箱进行诈骗,跟这些亲友要钱。这种骗局可能会导致许多人受骗。

目前已有此类诈骗案例发生。该银行针对英国成年人所进行的调查显示,在过去一年来,有28%的受访者曾遇到这种诈骗至少一次。然而,有46%的受访者从未听过这种诈骗,更不要说了解如何保护自己。

这项调查还发现,8%的受访者说,他们会依据电话指示汇钱给对方,即便他们觉得这种电话很奇怪也是如此。

该银行资讯安全总监葛拉汉(Lisa Grahame)说:“人们经常在网路上发布包含自己的语音录音的内容,却没有想到这会让他们更容易受到诈骗分子的伤害。”

她说:“因此,重要的是人们要了解诈骗分子所采行的此类诈骗,以及如何保护自己和亲人,不要成为受害者。”

一名男子接到诈骗电话的示意图。(Shutterstock)

什么是语音复制?

澳洲查尔斯史都华大学(Charles Sturt University)警务研究资深讲师阿斯莱特(Duane Aslett)等4名学者在The Conversation网站撰文说,科技的发展使犯罪分子更容易侵入人们的个人空间,所以谨慎使用科技产品比以往更重要。

这些学者指出,语音复制是一种深度伪造技术,可以从简短的音讯样本中撷取某人的口音、说话和呼吸方式,借此复制其语音。音讯样本只要有3秒钟的长度就足以用来复制。

说话方式一旦取得,AI语音产生器就可以将人们输入的文字转换为类似于某人声音的语音,而且非常逼真。

像“哈啰,有人在家吗?”这样简短的句子就能用来复制语音,进行电话诈骗;而更长的对话可以让诈骗分子获得更多语音细节,让复制的语音更加逼真。因此,除非你相信对方的身份,否则讲电话时务必长话短说。

学者说,诈骗分子会利用AI复制的语音伪装成名人、有关当局或一般民众来进行电话诈骗。他们会营造迫切感,在取得受害者信任后要求对方以礼品卡、电汇或加密货币等方式给钱。

有不少语音复制诈骗已经登上媒体版面。举例来说,先前有诈骗分子复制了阿联酋(阿拉伯联合大公国)一家公司的协理之语音,骗取了3,500万美元的巨款。

诈骗分子会要求受害者以电汇等方式付款。此为示意图。(Shutterstock)

如何反制语音复制诈骗?

这些学者表示,个人和组织可以采取多种措施来防止语音复制技术的滥用。

首先,唤起社会大众意识的活动和教育有助于保护个人和组织,减少此类诈骗的发生频率。

第二,个人和组织应该考虑使用具有活体检测功能的生物辨识技术。这是一种可以识别和验证真人语音而不是假语音的新技术。使用语音辨识的组织应考虑采用多重要素验证(multi-factor authentication),也就是使用两种以上的验证机制进行验证,例如输入密码再加上比对指纹。

第三,执法机关应加强复制声音的侦查能力。

最后,各国政府需要准确和更新的法规来管理相关风险。

这些学者总结说,网路犯罪对一个国家的经济影响甚钜,所以公众意识和强而有力的保障措施是很重要的。

他们说:“所有利害关系人——政府、公民和执法部门——都必须保持警戒并提高公众意识,以降低受害风险。”◇

责任编辑:茉莉

相关新闻
“你听得到吗?” 当心诈骗电话常用话术
AI学会欺骗和操纵人类 科学家呼吁政府严防
专家:这3种高薪职业将来可能被AI取代
谨防来自“危险电话区号”的诈骗
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论