专家:中共布局AI 带来诸多威胁

【大纪元2023年10月06日讯】(大纪元记者Venus Upadhayaya报导/程雯编译)随着中国科技公司发布他们各自中国版ChatGPT式的聊天机器人,专家们警告说,中共布局人工智能(AI)领域,带来诸多威胁。

8月31日,中国科技巨头百度推出了与ChatGPT对应的中文版“文心一言”(Ernie),而阿里巴巴则于9月13日宣布了其AI模型“通义千问”。

尽管“文心一言”最初是在3月推出的,但该聊天机器人现在才获得中共当局批准并可供下载。

百度在推出“文心一言”的一份声明中说:“除了文心一言(ERNIE Bot),百度还将开放一批经过全新重构的AI原生应用,让用户充分体验生成式AI的理解、生成、逻辑、记忆四大核心能力。”

随着美国国内的战略竞争升温,北京也加大了对中国企业研发AI的支持。阿里巴巴的阿里云智能部门在其微信公众号上发布消息称,包括OPPO、淘宝、钉钉、浙江大学等多家机构已与阿里巴巴达成合作协议,将基于“通义千问”训练他们自己的“大型语言模型”(LLM)。

专家们表示,中国使用尖端AI工具可能会增加对手的国家安全风险。

AI研究员兼作家萨哈尔‧塔赫维利(Sahar Tahvili)表示:“使用ChatGPT,或阿里巴巴的通义千问,或类似的AI系统等大型语言模型可能会被视为一种安全威胁,因为存在错误讯息、自动攻击、道德问题和数据隐私等方面的问题。”

塔赫维利女士是《软体测试流程优化的AI方法:实例与练习》(Artificial Intelligence Methods for Optimization of the Software Testing Process: With Practical Examples and Exercises)一书的作者[与⾥奥‧哈特瓦尼(Leo Hatvani)合著]。

生成式AI描述了可以产生新内容的算法,包括音频、代码、图像、文字、模拟和视频。大型语言模型是生成式AI的文本生成部分。

大型语言模型涉及深度学习算法,可以执行各种语言处理任务,例如识别、翻译、预测或生成文字或其它内容。

英国资深科技投资者阿什温‧库马拉斯瓦米(Ashwin Kumaraswamy)估计,在使用复杂的AI大型语言模型方面,中国领先世界其它国家15年。库马拉斯瓦米是多家科技公司的董事会成员。

尽管大多数西方国家普遍使用的社群媒体平台在中国被禁止,库马拉斯瓦米指出,腾讯的微信平台在中国无处不在,为用户提供了多种选择和功能,包括购物、发简讯、开展业务、微博和聊天机器人功能。

这位风险投资家告诉大纪元说:“在数位化方面,它们确实非常强大,而且是集成的。”

2023年3月16日,北京,百度首席技术官王海峰在百度聊天机器人“文心一言”的发布会上发言。(Michael Zhang/AFP via Getty Images)

具社会主义核心价值观的AI:“换个问题试试吧”

专家们告诉大纪元,来自中共的AI相关的威胁源自于北京与西方之间的意识形态分歧。

总部位于檀香山的“太平洋论坛”(Pacific Forum)的网路安全和关键技术总监马克‧布莱恩‧马纳谭(Mark Bryan Manantan)在回复大纪元采访的一封电子邮件中说:“如果想评估中国如何应对大型语言模型热潮,就必须分析(中共的)网络空间管理部门提出的法规。”

他还说:“尽管人们对AI的关注度很高,但中国(中共)最关心的仍然是信息安全,并且是符合其‘社会主义核心价值观’,和(中共颁布的)现有数据安全和个人信息保护法律和政策的。”

塔赫维利女士指出,ChatGPT的中国版本与其它AI模型一样,是一个“黑箱系统”。这意味着“模型的内部运作或决策过程不容易被人类解释或理解”。

生成式AI的黑箱性质通常使其变得不可预测,这可能会带给人一种自主思维过程的表象。因此,她警告说,其它国家对中国(研发的)AI背后的意识形态推动力可能太天真。

然而,媒体报导称,据专家们表示,中国的科技公司对AI的每一步研发都必须向中共当局报告,这使得北京对涉及其AI大型语言模型的战略主旨是明确无误的。

事实上,正如英国广播公司(BBC)9月9日的一篇文章所述,当“文心一言”被问到一个“棘手”问题时,它通常的回答是“换个问题试试吧”,或“抱歉,我还没学会如何回答这个问题”。

库马拉斯瓦米表示,中国的广大民众几乎已经放弃了抵制中国共产党的政治意识形态——他们已经被洗脑了很长时间。

他说:“鉴于他们(中共当局)拥有有关一般情绪和一般闲聊的数据和信息,这些模型可以被ChatGPT式的解决方案用来自动灌输。但中共当局不需要用AI来传播意识形态,因为他们早已使用学校对他们的年轻一代进行严格的控制和思想塑造。”

中国科学院安徽合肥综合性国家科学中心人工智能研究所推出的一款人工智能应用程序可以测试共产党员的忠诚度。(Screenshot from the institute’s website/The Epoch Times)

AI军事应用

中国的大型语言模型可能应用于中共军队(PLA)中,特别是在认知战或资讯战等领域。

乔什‧鲍曼(Josh Baughman)是美国空军航空大学(U.S. Air Force’s Air University)辖下的智库“中国航空航天研究所”的分析师。鲍曼在8月21日发表的题为“中国(中共)的ChatGPT战争”(China’s ChatGPT War)的论文中写道,用弗里德⾥希‧恩格斯(Friedrich Engels)的话来说,生成式AI将“导致战事的变化甚至革命”。

鲍曼表示,中共军队旨在将AI用于军事应用,并指出最近几个月在中国军事期刊上发表了大量有关AI的文章。

他引用了现任中共国防大学教授、退役少将胡晓峰的一篇文章,胡晓峰在文中说:“以ChatGPT为代表的AI尖端技术将不可避免地应用于军事领域。”

塔赫维利女士表示,大型语言模型和自然语言处理(NLP)模型在军事和国防部门中有多种潜在应用。

鲍曼的论文中提到了七个主要应用领域:“人机交互、决策制定、网路战、认知领域、后勤、太空领域和训练。”

太平洋论坛的马纳谭讨论了认知战或资讯战方面的问题。他表示,ChatGPT可以放大虚假资讯活动并增强其执行力。

他说:“大型语言模型可以创建更有说服力的文本。其它安全威胁还包括恶意软体生成骇客攻击和复杂的网路钓鱼。”

一般来说,认知战涉及影响对手的看法、信念和决策。

塔赫维利女士说:“在这方面,AI可以用于战略规划、资讯分析和翻译。此外,AI模型可以整合到军事训练项目和模拟环境中,以提供逼真的互动式场景。”

谨防AI陷阱

鲍曼表示,虽然中共军队媒体的文章谈到了ChatGPT在战争中的使用不可避免,但其“也不急于很快将其大量整合到军事行动中”。他说,其中有三个需要深思熟虑的主要问题,即“建立数据集、最佳化和技术互信度低”。

然后是中共审查制度的问题,他说:“此外,虽然中共军队媒体没有提及,但还有中国共产党本身的问题。有可能对党发表负面言论的程序将不会被允许,而这可能会抑制生成AI的整体功效。”

总体而言,鲍曼说:“中国(中共)明白有必要成为战场上生成式AI的先行者(或紧随者)。”

然而,鲍曼认为,与美国一样,中共方面对过快整合AI技术也持谨慎态度,因为他们也意识到AI用于战争存在许多潜在陷阱。◇

原文:IN-DEPTH: As Chinese Tech Unveils New CCP-Approved Chatbots, Experts Warn of AI Threat From Beijing刊登于英文《大纪元时报》。

责任编辑:李琳#

相关新闻
【新闻大家谈】马斯克会李强 特斯拉会被染红?
大陆知名病毒学家张永振上海实验室疑被关闭
唐一军月初落马 月底被撤全国政协委员资格
马斯克突然访华见李强 分析:中共遇瓶颈
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论