【名家专栏】当科学存有偏见时

人气 313

【大纪元2020年05月27日讯】(英文大纪元专栏作家Bob Zeidman撰文/原泉编译)当今的研究有一种令人不安的趋势,所谓的计算机科学家将自己的信念注入他们的研究中。他们通过“修正”数学模型来达到他们想要的结果。

他们称这样的结果“无偏见”,但事实恰恰相反。这项工作几乎影响到每个人生活的方方面面。人们必须意识到这个问题,而且应该关注你的生活在你不知情的情况下是如何被操纵的。

算法是为解决一个问题所采取的一系列步骤。就像祖母的牛肉食谱一样简单﹐在沾上了肉汁的卡片上写着浇汁、切肉、搅拌、烘烤和食用的分步说明。如今,算法通常指计算机按照程序的指令执行的数学步骤。

每天,我们都会接触到计算机算法,它们不仅控制我们智能手机上的应用程序,还控制着交通灯、电梯、温度控制器,最重要的是,还控制着我们在搜索引擎和社交网络上看到的信息。

这些算法用于优化你的生活并为你提供个人相关的信息,但同时也尽可能多地了解你:记录你的好恶。

亚马逊用他们的算法向你展示你可能想买的商品,而不是你用不着的商品;Netflix使用他们的算法推荐你可能会喜欢的电影;保险公司使用他们的算法来量化你的风险和确定你的保费成本。医疗保险公司可能很快就会使用他们的算法来为你确定正确的治疗方案和处方。

当你在谷歌上搜索信息时,它们的算法会产生结果,为你提供最相关的信息,引导你做出决策。

算法偏见

计算机科学中最新的热门研究主题称为“算法偏见”。计算机科学家正在研究算法偏见及其解决方法。我为这些研究人员提出了一个新术语:“proclivist”,来自拉丁语“proclivitas”,该词的意思是“偏见”。

这些计算机专家在学校研究算法偏见,然后进入工业界大公司的部门做管理,指导工程师团队发现所谓的偏见,然后予以“修正”。

这些专家包括谷歌机器学习公平努力的产品负责人图尔西·多西(Tulsee Doshi)和麻省理工学院的研究员乔·布兰维尼(Joy Buolamwini),后者创建了算法公正联盟。

反对偏见听起来是件好事,对吧?但是,就像乔治‧奥威尔的反乌托邦小说《1984》中的双重语言一样,当计算机专家谈论在算法中消除偏见时,他们真正的意思是在算法中加入偏见,根据他们自己对公平的定义﹐产生他们认为“公平”的结果。

当你用谷歌搜索某个特定术语时,你可能会认为得到了最相关的结果,但正如谷歌公开承认的那样,你实际上得到的是谷歌希望你得到的结果。不论谷歌所施加的偏见是政治的、宗教的、文化的还是其它不准确的东西,谷歌都在引导我们它要我们去的地方,并假装它给了我们公正的结果。

最近,多西在计算机科学协会作了一个主题为“机器学习中的公平性”的演讲。

她一开始就讨论谷歌如何对各种查询进行评分,以确定它们是“有毒,中性或无毒”。谷歌通过检查上下文来确定毒性。如果这些页面中包含卑鄙、可恨的字眼和陈述,则该词被定为“有毒”。然后,她举了几个有毒词汇的例子,并说:“我们不希望看到这一点。我们不希望这是真的。”

但是科学从来不是关于我们想要什么,而是关于我们发现了什么,不管我们喜不喜欢。而“计算机偏见”认为,科学是要改变结果,由某些人武断地决定公平与否﹐然后使结果变得“公平”。

举一个具体的例子。几年前,在谷歌上搜索“犹太人”一词时,最热门的结果是反犹网站。许多犹太人团体,包括我担任董事会成员的反诽谤联盟(Anti-defarmation League),向谷歌投诉,迫使他们改变算法,以消除这些搜索结果。

最初的结果有偏见吗?当然,经过清理的结果是带有偏见的,因为谷歌改变了算法,专门排除了这些反犹文献,以免冒犯他人。我们应该关注反犹的搜索结果,但更应关注清理后的搜索结果,因为如果在美国或世界范围内存在反犹太主义问题,我们需要了解它。更改搜索结果只会隐藏问题,这使得追踪反犹团体变得更加困难。它没能使世界变得更美好,只是将这个问题掩盖了起来。

性别偏见

多西在演讲中引用了一位非洲裔美国女性研究员布兰维尼撰写的论文,题为“性别阴影:商业性别分类中的交叉精度差异”(Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification)。她的“性别阴影”网站上也有一篇介绍。

根据布兰维尼的说法,她写这篇论文的初衷是当她用自己的面部照片测试人脸识别程式时,无法确定她的性别。这似乎特别令人困惑,因为在她的论文中,布兰维尼宣称有许多性别,不仅仅是男性和女性,因此不清楚应该使用什么标准来确定性别。但无论性别的分类是“正确的”哪种类别,她声称深色皮肤的人,特别是女性,更容易因为算法偏见而被错误地分类。

然而,这是一个合理的解释,深色皮肤的人﹐照片将更难识别,因为简单的事实是,与人眼相比,照片所能显示的对比度是有限的。此外,浅肤色的脸会显示更多的阴影,显示轮廓和细节,而深肤色的脸则不会。这是可以客观检验的,但事实并非如此。也许算法无法对某些人脸进行分类不是偏见,而是算法的一个天然的困难或缺陷。

公平性指标

多西继续描述“公平性指标”,据她说,该指标确定算法是否公平。普林斯顿大学计算机科学教授阿尔温德‧纳拉亚南(Arvind Narayanan)已经确定了21种关于算法公平性的定义。多西承认谷歌实际上有超过21个定义。

她还承认,“修正”一种公平性定义的算法实际上会使公平的其它定义变得更糟,但是她对此不屑一顾,因为谷歌只需“考虑我们要选择的定义及其含义 ”。

康奈尔大学和哈佛大学的乔恩·克莱因伯格(Jon Kleinberg)、希尔希·穆兰纳森(Shilhil Mullainathan)和曼尼什·拉格万(Manish Raghavan)撰写了一篇关于“算法偏见”内在冲突的优秀论文,题为“公平确定风险分数的内在权衡”(Inherent Trade-Offs in the Fair Determination of Risk Scores)。该文的结论是,不存在能同时满足三个最常见的“公平”条件的算法修正,更不用说21个或更多条件了。

换言之,根据一个标准使算法更“公平”,根据另一个标准则使算法更“不公平”。

这个数学证明没有考虑使用了什么样的算法,什么标准,人们如何被分成小组,或者预测了什么样的行为。这是一个基于纯数学的漂亮证明。除非你认为数学有缺陷,或者数学本身有某种偏见(有些人确实这样认为,包括西雅图学区),否则这个证据是无可争辩的。

在我写这篇文章的时候,非裔美国人感染新冠病毒的比率比其他种族的人都要高。新冠病毒有偏见吗?我们是否应该调整统计数据以“修正”其影响?当然不是。这种所谓的“偏见修正”实际上阻止了真正的科学家找到可能导致对世界运转方式有更好理解的潜在关系。

在假设新冠病毒有偏见的情况下,“修正”偏见将妨碍我们理解疾病并最终找到治疗方法的能力。

对于谷歌这样的搜索引擎来说,让搜索结果“公平”意味着我们不仅学到了错误的东西,而且还学到了一小部分商人、活动家和计算机专家希望我们学习的东西。这种新的研究形式是错误而危险的。

作者简介:

鲍勃· 泽德曼(Bob Zeidman)曾就读于康奈尔大学和斯坦福大学的物理和电气工程专业,并在德安扎学院学习电影制作。他是著名的“硅谷餐巾纸”(Silicon Valley Napkin,注:预先印制上表格的餐巾纸,为创业者们提供了巨大的方便)的发明者,也是多家成功的高科技硅谷公司(包括Zeidman Consulting、Software Analysis and Forensic Engineering)的创始人。他还写小说。他的最新作品是政治讽刺小说《善意》(Good Intentions)。

原文When Science Becomes Biased刊登于英文《大纪元时报》。

本文所表达的是作者的观点,并不一定反映《大纪元时报》的观点。

责任编辑:高静#◇

相关新闻
【名家专栏】瘟疫大流行下的政治家和专家
【名家专栏】中共病毒为何危及中共帝国梦
【名家专栏】瘟疫下的种族主义谎言
【名家专栏】学校就是学校 不该沦为“监狱”
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论