AI聊天机器人有泄密风险 谷歌警告员工当心

人气 1050

【大纪元2023年06月17日讯】(大纪元记者高杉编译报导)四位知情人士向路透社表示,当谷歌正向全球推广其人工智能(AI)聊天机器人产品Bard之际,其母公司Alphabet就使用AI聊天机器人的问题向自己的员工发出了新的警告。

据路透社报导,知情人士表示,谷歌母公司警告员工,在与人工智能聊天机器人进行交流时,不要输入公司的任何机密信息。谷歌公司证实了这一消息,并援引了其长期以来的信息保护政策。

所谓AI聊天机器人,其中包括谷歌推出的Bard和OpenAI的ChatGPT,是指可以像人类一样进行交流的人工智能程序。它们使用了被称为生成性人工智能的技术与用户进行对话,并可以回答涉及广泛的提问。

谷歌公司的评审员在阅读AI聊天记录时发现,类似的人工智能机器人可以在与人聊天时,复制并展示它在训练期间所获得的敏感数据,从而产生机密信息泄漏风险。

一些知情人士表示,Alphabet公司还提醒其工程师,避免直接使用聊天机器人生成的计算机代码。

当被问及对此有何评论时,该公司表示,Bard可能会提出一些不受欢迎的代码建议,但它仍然会对程序员有所帮助。谷歌还表示,它的目标是公开其技术的局限性。

这些担忧表明,谷歌希望避免在与ChatGPT竞争时发布的软件对其业务造成损害。谷歌与推出了ChatGPT的OpenAI和微软之间的竞争,关系到数以十亿计美元的投资,以及来自新人工智能程序的广告和云收入。

谷歌的谨慎态度还反映出了一种正在成为企业安全标准的做法,即警告员工不要使用对公众开放可用的AI聊天机器人。

包括三星、亚马逊和德意志银行等公司分别向路透社表示,全球越来越多的企业已经针对人工智能聊天机器人设置了“防护栏”。

据社交网站Fishball针对近1.2万名受访者进行的民意调查显示,截至今年1月,大约有43%的专业人士在使用ChatGPT或其它人工智能工具,而且往往不会告诉他们自己的老板。这些受访者均来自美国顶级公司。

据知情人士表示,今年2月,谷歌公司告诉员工在发布之前对Bard进行测试,不要向这个人工智能机器人透露内部信息。现在,在谷歌正向超过180个国家和逾40种语言推出人工智能聊天机器人Bard之际,它对内部员工的警告又延伸到了禁用它写出的代码。

谷歌公司告诉路透社,它已经与爱尔兰数据保护委员会进行了详细的对话,并且正在处理监管机构提出的问题。

据美国“政治家”网站(Politico)周二(6月13日)报导称,谷歌将推迟Bard在欧盟的发布,以期获得更多的、有关该聊天机器人对隐私影响的信息。

对泄露敏感信息的担忧

目前,这种人工智能技术已经可以独立起草电子邮件、文档,甚至编写软件代码,无疑,它可以帮助人们大大加快完成任务的速度。然而,在人工智能所创建的这些内容中,很可能会包括错误信息、敏感数据,甚至是《哈利‧波特》小说中受版权保护的段落。

谷歌公司在6月1日更新的隐私通知还强调:“不要在你与Bard的对话中使用机密或敏感信息。”

一些公司已经开发了特别的软件,以期解决这些问题。例如,保护网站免受网络攻击并提供其它云服务的Cloudflare公司,正在营销一种为企业标记和限制数据向外部流动的工具。

谷歌和微软也在向企业客户提供特别的人工智能会话工具。这些工具价格更高,但不会将敏感数据吸收到公共人工智能模型中。Bard和ChatGPT中的默认设置,都是将保存用户的会话历史记录。当然,用户也可以选择删除该记录。

微软消费者首席营销官优素福‧迈赫迪(Yusuf Mehdi)表示,公司不希望员工在工作中使用公共聊天机器人的做法是“有道理的”。

迈赫迪还解释了微软免费的Bing聊天机器人与其企业级软件的区别。他说:“企业级软件采取了更为保守的立场。在那里,我们的政策要严格得多。”

微软拒绝就其是否全面禁止员工向公共人工智能程序(包括自己的程序)输入机密信息的问题发表评论,不过该公司另一位高管对路透社(Reuters)表示,他个人限制了自己的使用。

Cloudflare公司的首席执行官马修‧普林斯(Matthew Prince)说,在聊天机器人中输入机密信息就像“让一群博士生随意浏览你所有的私人记录一样。”◇

责任编辑:叶紫微 #

相关新闻
揭纳斯卡线之谜 科学家利用AI搜到4个图案
美中军事AI无人机之争 为何中共劣势明显
人工智能AI可够取代房地产经纪吗?
生成式AI负面效应 KPMG提三关键治理
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论