site logo: www.epochtimes.com

骗子用AI模仿朋友声音 安省男子被骗八千元

联邦贸易委员会(FTC)数据显示,近来加美两国越来越多犯罪分子利用人工智能克隆声音,冒充他人亲朋好友进行诈骗。(Shutterstock)
人气: 115
【字号】    
   标签: tags: , , ,

【大纪元2023年08月24日】(大纪元记者李平多伦多报导)近日安省一名男子陷入人工智能(AI)新骗局。骗子用AI模仿男子朋友声音,男子被骗8,000元。

这名男子是安省旺市居民,只愿透露自己名叫山姆(Sam)。山姆向CTV透露,前不久他接到一个电话,对方自称是他朋友,他和这名朋友曾约好近期内一起去钓鱼。

骗子在电话中说,他开车发短信发生严重车祸被警察逮捕,需交近8,000元保释金。山姆表示,电话中骗子声音和朋友声音如出一辙,说话口气也一样,他才没有怀疑。

紧接着,山姆又接到自称是朋友律师的多个电话,最后稀里糊涂地给骗子转了8,000元。随后骗子又编造其它借口索取更多钱,山姆开始起疑,打电话给朋友,朋友说一切安好,啥事没有,他才发现自己被骗子耍得团团转。

后来骗子又打来电话,山姆告诉对方他已发现对方根本不是他朋友,骗子停顿一会,随后声音恢复原样,不再是人工智能辅助篡改后的声音。

如何避免上当受骗

联邦贸易委员会(FTC)数据显示,近来加美两国越来越多犯罪分子利用人工智能克隆声音,冒充他人亲朋好友进行诈骗,委员会收到海量这类投诉,去年消费者被骗金额总计26亿元。

FTC市场部助理主管格雷斯曼(Lois Greisman)提醒,人工智能声音克隆问题严重,消费者应察觉和警觉,防止上当受骗。骗子会截取受害人或其亲友的一段声音片段,然后利用人工智能进行复制,复制后的声音和原声基本可以假乱真。

格雷斯曼介绍,克隆他人声音,骗子只需截取几秒钟的声音,可通过录音、从社媒上截取或从电话留言中截取他人声音。这类骗局共同点是骗子声称出了急事、急需用钱,接到这类急需用钱、急需电子转账、礼品卡甚至现金的电话,应立即引起警觉,不要立即上当,而是直接打电话给家人或朋友确认。

专家提醒,骗子不仅会冒充他人家人和朋友,还会冒充公司老板称急需用钱。要避免上当受骗,最好有些暗语,只要心中起疑,立即挂断电话然后直接联系当事人确认。◇

责任编辑:文芳

评论