【菁英论坛】冲击人类多方面 AI发展遇瓶颈

人气 2160

【大纪元2024年07月09日讯】有关机器或者人工智能机器给人类带来灾难的担心已经持续了两三百年。我们看到大部分有关世界末日的电影其实都和人工智能的电脑系统有或多或少的关系。大部分人不明白AI的原理,对未知的未来感到担忧,这当然情有可原。但最近越来越多的高科技行业人士,甚至是AI的专家也开始对这个问题表达他们的担心。那么,这些忧虑到底是基于什么样的原因?是有所根据,还是杞人忧天、危言耸听呢?AI会导致人类走向末日吗?

掌握AI将统治全球 AI发展进入危险期

独立电视制片人李军在新唐人《菁英论坛》节目中表示,现在有一大批高科技专家学者、政客,对于AI的发展忧心忡忡。2023年的5月份,被称为ChatGPT之父的Altman和超过350名人工智能方面的专家,联合签署了一份公开信。他们认为人工智能有可能导致人类灭绝的风险,所以应当将其视为与大流行病和核武战争同等的社会风险。Altman说过一句话,无论谁成为AI的领头羊,他都将统治全世界。这句话让很多人不寒而栗,因为如果这个技术落到了没有道德的人或组织身上,那对人类将是灭顶之灾。Altman还建议建立类似国际原子能机构组织,安全监管AI的发展,政府也要加强监管。伊隆‧马斯克则认为AI技术有10%到20%的可能性会消灭人类。川普(特朗普)曾问过马斯克,说现在有可能用AI技术来模仿美国总统,发动核战争触发世界核大战吗?马斯克的回答是肯定的,所以川普很担心,如果AI失控的话,会给人类带来巨大的灾难。

李军说,从长远看,随着AI从弱人工智能一步步发展到人工通用智能,甚至到超人工智能,人类的各项工作甚至是家庭角色包括妻子、丈夫都有可能被取代,这对整个社会的发展应该是颠覆性的了,更有可能是失控的。那时候或许它已经比人类聪明很多倍了,成了人类的主人了。人类有办法避免这种可能性吗?

人工智能专家杰森在《菁英论坛》中表示,马斯克提到的AI有10%、20%的可能未来真的是会毁灭人类,那我想它可能是有一定的延展性。比如说把现有的技术再延展五六代、三四代,那么AI有可能会出现自我意识。

现在人工智能有一个比较危险的方向,叫做Agent,就是让一系列人工智能程序中的每个程序扮演不同的角色,再用它们的交互的过程来实现某种工作。比如它的构造用十个AI的Agent,我叫它代理人或者智能体,每个都扮演不同的角色,让他们在交互过程实现一个软件开发的全过程。这个过程在现有人工智能模型下还不那么可怕,但是如果将来人工智能本身智力越来越高的时候,那么在这个互相几个Agent交互过程中,人类的可控性就被削弱很多了,你不知道它们在交互过程中会讨论出一个什么样的状态来。为了达到某个目标,它们如果没有一个明确的法律准绳或者说道德的准绳,它们会讨论出什么过程?如果讨论出的这个东西是很糟糕的,那么这个就让人很担心,我对这个方向是担心的。

AI发展遭遇瓶颈期 人类缓口气

杰森在《菁英论坛》表示,未来AI会不会到最后控制了人类?2023年我觉得可能,今年我稍微乐观了一点点。大概在2022年的11月,当时ChatGPT出来的时候,我第一次被震惊到了,当时那个人工智能模型是OpenAI的GPT3.5,已经让我非常吃惊了。等到大概2023年3月的时候,OpenAI就推出来了GPT-4,那个就彻底让我惊讶了。如果把GPT-3理解成一个幼儿园,小学一二年级小孩儿智商的话,那么GPT-4其实就已经达到了高中生甚至有部分是大学生的智商,因为它通过法律考试的时候,成绩超过了前10%,在这么短的时间内发展如此之快,这让我非常惊讶。当时我在节目中说,人类社会出现奇异点了,就是人类从此走上了一条不归路。

当然在今年,我稍微放心了一点。在过去的一年里,GPT-4几乎一直处于整个现在人工智能的山尖这个位置上,不管是Google出的Gemini(聊天机械人),还是后来Claude出的Claude3模型,虽然这模型的能力稍微明显地超出了GPT-4,但是它的提高是非常小的。从这个过程我就看到,其实很可能人类人工智能如果没有新的技术突破的话,按现有的技术,未来的发展可能会缓下来。原来大家预计今年、明年就会出现真正的通用性人工智能,现在看来这样的设想可能稍微有点突进了。就我看的话,是因为有技术上的原因使得目前GPT-4出现了某种意义上的瓶颈,再突破很可能是一种量化的突破,而不是GPT-4和GPT-3.5之间质变的突破,就是人类事实上是走向了一个数据瓶颈这样的概念。

杰森表示,限制技术发展的原因主要是数据方向。有人说某种意义上讲,GPT-4已经拿下了互联网70%的信息,换句话说,在人类数据增长的过程中,它能拿到的数据已经基本上都拿下来了,要是说再扩展,再乘以十倍的数据量,那很可能就不是人类现有能生成的自然数据量了,可能就得用人工智能自动生成创造。那么这个时候就有点内卷了,因为AI的智力就来自于现有的知识,现有的知识卷出来的人工智能的输出,然后以这个输出再去作为数据,它就跟原来那个实实在在来自于人类原始的数据的质量,各方面就不一样了,多样性、创造力各方面都不一样了。所以,数据现在成为整个人工智能发展的一个瓶颈,这使得整个社会有可能缓一口气,来面对未来人类如何应对AI的问题。

中共无道德底线 欧美阻其核武AI化

大纪元资深编辑与主笔石山在《菁英论坛》表示,全世界现在谈的最多的就是AI军事化,尤其是核武器,一旦真的发射以后就控制不住了。因为现在美国跟欧洲已经有默契了,它们正在跟中国和俄罗斯试图要谈这个问题,就是一定不能把AI用在核武器的控制上面。如果AI突然伪装成总统发出核攻击的指令,这是太令人恐惧的一个前景了。

杰森在《菁英论坛》中表示,AI控制核武器,我想目前还没有哪个神经病的国家想这么做,但是,这是在一个和平理性的状态下说这样的话。有很多鼓励AI发展的那些技术人士或者专家,他们说的很多话都是基于目前这样的状态,但是他没有在动态的极端情况下去考虑这个事情会往哪个方向走。而中共是没有道德底线的,从我们知道的生物科技等各方面都可体现出来,它做出来的东西就是超出人类的伦理道德。但是这个过程中,要是中共真的在未来因为某种原因,不管是南海、台湾海峡跟整个世界变成对手的时候,中共会不会因此开始考虑把AI技术更多地应用于武器上?不说核武器,只是导弹各方面,事实上存在非常大的可能性。独裁国家经常会说一句话,就是大不了我们死几亿人换来什么什么,这就是为什么目前AI在国际上处于两难的状态。一方面大家都觉得应该控制AI的发展,一方面又说应该发展AI,不能让中共领先了,AI要由西方控制,让中共发展起来怎么办?人类事实上某种程度上是被一些邪恶的因素裹挟着,以技术竞争为借口,把人类往一个非常危险的境地上推。

AI改变资讯传播模式 人类文明面临巨大冲击

中文大纪元报纸主编郭君在《菁英论坛》中表示,AI军事化,尤其是用AI来控制核武器,确实是一个最明显让人类担忧的问题,但实际上AI带来的冲击远远不止在军事化上。比如有两个美国科学家用了一个普通电脑,使用AI技术给出指令,让AI找出可以危害全人类的剧毒的化学结构,结果AI一个晚上就找出了五万多个新的结构,这个结果把两位科学家吓坏了,我想全世界都应该吓坏了才对,因为谁敢保证这个技术不被坏人使用?

还有深度伪造,AI也可以伪造文书、声音、画面。人类过去几千年都相信眼见为实,这是人类认知和认识这个世界的基础,是我们世界观的基础。如果未来变成眼见未必为实的话,我们现在已经是这个样子,看到很多东西很真实,我都想这是真的还是假的?我们应该相信什么?人类文明从某个角度看就是一种资讯流通模式的发展,从语言、文字、图画,最后到报纸、杂志,这种资讯承传的文化也塑造了后面接下来的文明。但现在AI的发展其实已经冲击到了资讯的创造和传播的模式,这对人类文明的方式将是一个巨大冲击。

此外,有人预计按照现在的速度发展,20年之后AI技术可以取代大部分人的工作,也就是说20年之后,大部分人都没有工作做了,或者是不需要工作了,那这种所谓的进步是不是太快了?

郭君表示,我们真的能够适应这个变化吗?这对人类现存的社会结构、经济结构会造成一个什么样的冲击,其实没有人知道。这就是很多人工智能专家呼吁降低AI发展速度的一个原因,目前谁也不知道AI后面走向的含义,人类需要调整和适应未来的这种危机,这是肯定的。

新唐人、大纪元推出的新档电视节目《菁英论坛》,是立足于华人世界的高端电视论坛,该节目将汇集全球各界精英,聚焦热点议题,剖析天下大势,为观众提供有关社会时事和历史真相的深度观察。

本期《菁英论坛》全部内容,敬请线上收看。

《菁英论坛》制作组

责任编辑:李昊#

转载和引用《菁英论坛》文章,请保持原文内容,并标明出处。

相关新闻
AI需大量算力和训练 严重消耗人类电能
桃市高中生国际科技夏令营探索AI应用
有上千个AI“假吴淡如”诈骗  吴本人吁勿上当
死后AI将自己“复活” 尼可拉斯凯吉恐惧也排斥
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论