防AI失控 多国政府拟定相关限制

人气 289

【大纪元2023年10月30日讯】(大纪元专题部记者吴瑞昌报导)近期国际冲突不断,中共、伊朗等极权国家或激进组织滥用AI,去发动讯息战煽动民众仇恨,或借此发展出更强大的武器。对此,多国政府开始重视对AI的限制,希望透过新法规和共同合作,防止世界出现最糟糕的情况。

英国首相苏纳克(Rishi Sunak)10月26日就人工智能(AI)问题在伦敦发表演讲。他先是肯定AI在医疗保健等领域上拥有极高的潜力,不仅能诊断失明,还可以预测心脏病、中风或帕金森氏症等。

不过,苏纳克就AI的问题对民众发出严重警告。他说,“人类可能会完全失去对AI的掌控,那将会带来极其严重的后果。因为AI就像每一波科技浪潮一样,会带来新的知识,但也会带来新的危机和恐惧。”

他还提到,“恐怖分子和犯罪组织可能会利用AI,制造出杀伤力强大的生化武器、网络攻击、传播虚假资讯、诈欺甚至儿童性虐待。”

不过,苏纳克认为,只要政府做好监管和控制,AI就不会导致人们出现危险。他说,“目前政府已经投资1亿英镑,组建新的监管AI工作小组,用于保证民众的安全。”

苏纳克强调,“AI没有国界之分,需要更多国家、高科技公司代表和民间社会参与英国举行的‘全球首届AI安全高峰会’,共同商讨应对AI带来的风险,确保AI系统在发布之前是安全的。”

另外,英国政府在10月25日发布《AI能力与风险》报告提到未来的18个月内(2025年)黑客、诈骗者和恐怖分子可以利用AI以更便宜、更容易地方式攻击无辜受害者。

人类越来越依赖AI的决策

人类除了担心别有用心的人利用AI做坏事,还担心依赖AI的问题。许多人把诸多重要的决策和控制权交给AI来处理的问题,例如:网球比赛中的判定,法院裁判权、或者网购和仓储系统、重要的国家决策和科学研究等。

这种依赖可以从英国首相的演讲听到。当时苏纳克提到,英国政府投资近25亿英镑购买量子电脑,用于AI研究和政府业务上。原因是AI可以为人类生活上的问题,提供一百万种不同的解决方法,而这台量子电脑比世界上最快的超级电脑要快上数亿倍。

许多人,包括科学家都担心,若人们继续毫无限制地发展和依赖AI,恐产生人类难以收拾的场面,而数据公司丰富(Profusion)的执行长娜塔莉·克兰普(Natalie Cramp)也表达了对AI的担忧。

她认为AI并非万无一失,未来极有可能出现《魔鬼终结者》等电影中描绘的人类末日情况,把人类视为消除的对象。目前,AI短期的危险在军事应用上,因为AI可以远端控制无人机或机器人,但它们可能做出伤害人类的行动。

实际上,克兰普讲的早已成为现实,如美国研发的F-16无人战斗机、以色列士兵装备的“智能射手”、俄乌战场上使用的AI无人机。另外,美国空军6月在一次AI模拟测试中,发现一架负责摧毁敌方设施的AI无人机,不仅拒绝操作员中止任务的命令,还透过“杀害”操作员去完成任务。

AI能力已超乎想像

许多高科技公司希望结合“云计算”、“大数据库”和更强运算力“GPU芯片”打造更强大的AI,但人们担心这可能会让AI产生自我“意识”或在发生严重故障和问题时,会造成无法挽回的后果。

美国著名的西北大学(Northwestern University)的一个研究团队10月初在《美国国家科学院院刊》中发表一篇关于AI能够高效率地自动设计机器人的论文。这款AI拥有近乎让人们感到恐惧的“设计能力”,只要在轻型个人电脑上运行,且无需使用庞大的数据库或超级电脑。

该团队表示,只需要使用者对它下达类似“设计一个可以在平坦表面上行走的机器人”这种简单指令,AI就能在短短几分钟内设计出符合需求的机器人。这种能力是人类和过去的AI无法轻易办到,因为他们需要花费大量的时间进行训练和研发才能够完成。

对此,日本高科技公司社长德森翔(Sho Tokumori)10月28告诉大纪元,“AI看似能够突破人类固有的观念和限制,带来更多的可能性,但也会出现人类无法预料的情况,最终脱离人类的掌控并走向未知的方向,这是很危险的。”

麻省理工学院物理学家兼AI专家马克斯·泰格马克(Max Tegmark)曾多次表示,人类能让渡渡鸟等“低等”物种灭种,若出现一个比人类更强大、更聪明的人工智慧“物种”,那时将会有超过50%的人类面临相同的命运。

苏纳克演讲中提到的AI创造生化武器的技术很容易被恐怖分子操纵来寻找有毒的神经毒剂。此前,英国药理学家肖恩·埃金斯(Sean Ekins)在《未知:杀手机器人》(unknown:Killer Robots)纪录片中讲述,AI如何可在一夜之间创造(计算)出四万多个全新且极其致命的化学武器分子。

各国政府开始重视AI带来的问题

不仅是英国首相对AI感到担忧,联合国秘书长安东尼欧·奥古特雷斯(António Guterres)和日本首相岸田文雄也在10月份表达出相同的担忧。他们希望创立新的AI规则和应对小组,去应对AI在未来带来的风险和挑战。

让他们紧张的主要原因,是一些别有用心的人滥用生成式AI,在网上发布大量虚假的图片和消息或进行诈骗等,这可能导致社会出现大面积的混乱。

奥古特雷斯在10月26日的AI发展和风险的新闻发布会上表示,虽然AI能够带来进步,但也会被恶意使用,从而削弱民主社会的凝聚力和稳定。他宣布,成立联合国的AI咨询机构,用来应对AI快速发展所带来的风险和好处,该机构已选中30个国家的39人加入,大多来自大科技公司的工程师和教授。

日本首相岸田文雄在10月9日也曾表达过担忧。他表示,许多证据指出,生成式AI会带来虚假信息,从而引发社会混乱和威胁社会经济,因此有呼声要求政府在“推动”与“监管”之间取得平衡。

为此,他公布了G7为开发者制定了生成式AI的标准政策。该政策要求开发者必须公开系统功能和风险讯息,以确保人工智慧的透明度。未来会透过一种识别网路上资讯原始发布者的数位技术的“始发者档案(OP)”完成,同时在10月底制定“AI基础设施技术发展”的新措施,强化日本的数据处理系统。

这次岸田文雄公布的规定,可以说是回应了日本新闻协会、日本杂志协会、日本摄影著作权协会、日本书籍出版协会在8月17日共同要求日本政府正视AI、修改法律和限制AI被滥用的可能。

目前,美国正准备立法以更好地控制AI技术。特斯拉的CEO马斯克(Elon Musk)9月在美国国会山举行的一次私人聚会上对参议员和记者们表示,AI对整个社会构成了“文明风险”,我们必须采取积极的反应,而不是被动,原因是AI出错的后果是“严重的”。

德森翔表示,“现在正值需要制定有关于AI的国际规范。虽然AI是一种工具,但它的使用取决于人的道德规范,因此在AI尚未脱离人类的掌控之前,规范出AI的开发标准,可能是最佳时机。”

不过,日本的电脑工程师清原仁(Kiyohara Hitoshi)10月28日告诉大纪元,“目前政府部门或组织制定的政策,可能难以解决实质的问题,因为法律很难真正约束到坏人。另外,人们在完善AI的过程,可能需要付出很大的代价,除非叫停AI或人们的道德水准出现提高,才能有效解决根本问题。”

(记者王佳宜、张钟元对本文有贡献)

责任编辑:连书华#

相关新闻
中共投资AI战争应用 意在削弱美国军事优势
专家:中共布局AI 带来诸多威胁
AI提高编程效率 软件开发高薪前景堪忧
英相警告:人类可能会失去对人工智能控制
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论