【大纪元2024年10月22日讯】(大纪元专题部吴瑞昌、张钟元采访报导)AI(人工智能)是一把双刃剑,在带给人们方便的同时,也带来巨大的社会安全问题。2024年诺贝尔物理学奖得主、AI教父杰弗里‧辛顿(Geoffrey Hinton)博士则警告说,世界正处于AI失控的边缘。
尽管世界许多人普遍看好AI的发展,但许多关于AI的问题仍处于无解的状态,甚至这些问题有着扩大的趋势。包括诈骗、假讯息操纵选举、版权等问题,为此多位科技专家和专业人士对于AI产生的问题发出警告或抗议。
由26名日本著名声优组成的“NOMORE未经许可生成AI”组织发表声明,反对自己的声音在未经许可的情况下被“生成AI”不当使用,该影片于10月15日发表到X、YouTube等各大社交平台上。
他们希望大家重视着作权,呼吁业界和政府应加速拟定规范避免这种问题再发生。实际上,日本新闻协会、日本摄影著作权协会、日本书籍出版等去年也曾做过类似的呼吁,而日本政府当时有回应这项要求,并制定相关的规定,但实际效果却不如预期。
另外,《纽约时报》、福布斯和康泰纳仕等媒体和出版商,日前共同指控亚马逊的CEO杰夫‧贝佐斯(Jeff Bezos)。指控他支持的AI初创公司Perplexity侵犯版权利益,原因是Perplexity未经许可就使用它们的材料来生成搜索结果。此外,《纽约时报》还在去年以相同的理由起诉了OpenAI和微软(Microsoft)。
除了版权问题之外,极权政府和坏人滥用AI,进行诈骗、虚假讯息传播的问题也在不断扩大,且令人难以察觉和分辨。
日本媒体10月3日报导指,中共利用AI技术创立超过200个账号,在社交平台上散播有关于“冲绳希望独立”的假影片和讯息。这些账号声称“琉球不属于日本,属于中国”,希望借此分化冲绳与日本之间的关系。目前这些影片已经在社群媒体上累积数百万次互动。
中共、俄罗斯、伊朗就曾被多次披露利用AI中的“深伪技术”(Deepfake)和AI制造许多虚假讯息和影片,并将这些东西发布到国内外各大社群平台上,以达宣传洗脑或分裂欧美等国际社会的目的。
知名科技创投公司Y组合器(Ycombinator)的执行长加里‧谭(Garry Tan)10月11日在X揭露,坏人利用AI生成的语音进行“相当复杂的网络钓鱼骗局”。
他表示,这些人会寄出虚假的Google支援信件到你的Gmail信箱中,要求你验证是否活着,或验证你是否在其它地方使用Gmail信箱。若你点击“是”就会被传送到钓鱼网站上。
微软解决方案顾问公司Sammitrovic的IT顾问萨姆‧米特罗维奇(Sam Mitrovic)9月曾在部落格发出关于针对Gmail账户的AI诈骗警示。他表明自己就收到过Gmail账户的“假信件”、“假语音”,只是当时有所警觉才没有上当受骗。他说,“AI骗局变得越来越复杂、越来越令人信服,且部署的规模也越来越大,这种骗局听起来、看起来都很合法。这边我会给这种骗局一个A的评价,因为很多人都可能会上当。”
日本的电脑工程师清原仁(Kiyohara Jin)对大纪元表示,“目前,世界对于AI发展的速度过快,没有走在一个健康的发展路线上,AI很可能引发人类无法承受的灾难。多数人为了眼前利益,并未真正重视安全,且人的道德层面也尚未跟上,这就让那些道德败坏的团体或个人有漏可钻。”
辛顿和霍普菲尔德的担忧
被称为“AI教父”的杰弗里‧辛顿教授与普林斯顿大学的约翰‧霍普菲尔德(John J. Hopfield),10月11日共同获得2024年诺贝尔物理学奖。不过,他们并没有感到喜悦,而是对于人类的未来感到担忧。
辛顿在诺贝尔委员会的视讯会议上表示,“我认为我们正处于历史的分岔点,接下来的几年里,我们需要弄清楚是否有办法应对这一威胁。”
辛顿呼吁研究更多关于AI的安全问题,并弄清楚如何控制比人类更聪明的AI。他说,如果不加以控制AI这项技术,就会增加网络钓鱼攻击、虚假影片和政治干预的风险。“目前,相当多优秀的研究人员相信,AI在不久会变得比人更聪明,而我们需要认真思考将会发生什么。”
他在一次采访中明确提到,美国现行的法律对于AI用于军事上的规范还不够完整,这可能造成AI被用于战争时,出现难以掌控或糟糕的状况。另外,中共方面它没有法律的顾忌,因此投入大量资源去发展AI相关的武器,这种情况更令人担忧。
10月11日,霍普菲尔德教授在普林斯顿大学礼堂的视讯通话中,也表达了他的担忧。他说,“任何事物都有正反两面,但我们对于AI还不够了解,也不知道它的极限在哪里。这让我十分不安,因为它有许多不可控制的地方。尤其是现在大家正在大力推动的AI神经网络系统。”
霍普菲尔德最后总结道:“我担心的不是AI,而是AI与全球资讯流结合后的结果。”他补充说,AI只依靠简单算法,就可以控制非常大的资讯系统,这让人感到“不安”。它整个运作方法还没有被很好地理解,且世界很可能被这些东西或少数人操控。◇
责任编辑:连书华#