site logo: www.epochtimes.com

研究:AI错误词汇 逾7成变人类记忆

图为人形机器人RoBoHoN。(David Becker/Getty Images)
人气: 44
【字号】    
   标签: tags: , ,

【大纪元2023年11月23日讯】(大纪元记者侯骏霖台湾台北报导)随着生成式AI(人工智慧)发展应用变广,台大团队近日发布最新研究发现,在对话机器人提供的错误资讯中,有77%会变成人们记忆,即便机器人会提出警告,但仅能增加大众戒心,却难以避免错误资讯影响认知。提醒大众应对AI输出内容保持适度怀疑,增加对抗假消息的免疫力。

台湾科技媒体中心表示,台湾大学心理学系副教授黄从仁率研究团队于11月20日在《美国心理学家》期刊发表最新的聊天机器人研究。

黄从仁指出,团队使用人工可编辑程式的人形机器人RoBoHoN(夏普公司研发)与台湾大学生对话,检查机器人提供情感及价值中立但内容错误的讯息中,是否有预告警语,以及多少比率会在之后的认知测验中,变成一个人记忆中的错误资讯。

研究结果显示,对话机器人的讯息有77%的错误词汇,成为参与者的记忆,即使加注一次性警语、针对特定项目预先警告,也无法避免错误资讯的灌输。

黄从仁说,不论聊天机器人有形无形,都应尽量不要输出错误的资讯,透过人工检核剔除学习资料中的错误资讯,或让聊天机器人透过网路搜寻,先对答案进行事实查核。他认为,人类也要对聊天机器人的输出内容保持适度怀疑,不要照单全收。

台湾大学资讯工程学系副教授陈缊侬表示,生成式AI与使用者互动时,可能以错误的资讯回答使用者,这种错误资讯是否会在长时间人机互动中,潜移默化的影响使用者,是规范当代AI产品相当重要的考量。要避免AI机器影响人类的想法、言论,最终变成一言堂。◇

责任编辑:唐音

评论