欢迎来到进口食品商务网!

算法中的偏见能帮助我们看清自己吗?

2024-04-11 12:34 来源:得道网

算法本应使我们的生活更轻松、更公平:帮助我们找到最好的求职者,帮助法官公正地评估保释和担保决定的风险,并确保向最需要的患者提供医疗服务。然而,到目前为止,我们知道算法可能和它们所告知和取代的人类决策者一样有偏见。

如果这不是坏事呢?

波士顿大学奎斯特罗姆商学院(Boston University Questrom School of Business)市场营销学教授、埃弗雷特·w·洛德杰出学院学者凯里·莫尔维奇(Carey Morewedge)的一项新研究发现,人们在算法的决策中比在自己的决策中更能意识到自己的偏见——即使这些决策是相同的。这项发表在《美国国家科学院院刊》上的研究表明,意识可能会帮助人类决策者认识到并纠正他们的偏见。

“一个社会问题是,算法会学习,并大规模地在它们接受训练的人类决策中产生偏见,”同时担任Questrom营销部门主席的莫尔维奇说。2015年,亚马逊测试了一种算法,帮助招聘经理筛选求职者(但很快就放弃了)。他们发现,该项目提高了它认为来自男性申请者的薪资,降低了来自女性申请者的薪资,这是一个明显的性别偏见案例。

但同年,亚马逊员工中只有39%是女性。如果该算法是根据亚马逊现有的招聘数据进行训练的,那么它优先考虑男性求职者也就不足为奇了——亚马逊已经做到了。如果它的算法存在性别偏见,“那是因为亚马逊的经理们在招聘决策中存在偏见,”莫尔维奇说。

“算法可以编纂和放大人类的偏见,但算法也揭示了我们社会中的结构性偏见,”他说。“许多偏见无法在个人层面上观察到。例如,在一个招聘决定中很难证明偏见。但当我们把人与人之间和人与人之间的决定加起来,就像我们在构建算法时所做的那样,它可以揭示我们的系统和组织中的结构性偏见。”

Morewedge和他的合作者——荷兰伊拉斯谟大学的beg<e:1> Çeliktutan和罗曼·卡达里奥——设计了一系列的实验,旨在梳理出人们的社会偏见(包括种族主义、性别歧视和年龄歧视)。

然后,研究小组比较了研究参与者对这些偏见如何影响他们自己的决定和算法做出的决定的认识。在实验中,参与者有时会看到真实算法的决策。但这里有一个陷阱:其他时候,归因于算法的决定实际上是参与者的选择,只是伪装了一下。

总的来说,参与者更有可能在他们认为来自算法的决定中看到偏见,而不是在他们自己的决定中。参与者在算法的决策中也看到了与其他人的决策一样多的偏见。(人们通常更容易意识到别人的偏见,而不是自己的偏见,这种现象被称为偏见盲点。)参与者也更有可能在事后纠正这些决定中的偏见,这是未来减少偏见的关键一步。

算法消除了偏见盲点

研究人员对6000多名参与者进行了9项实验。在第一个实验中,参与者对一组Airbnb房源进行了评分,其中包括关于每个房源的一些信息:平均星级(1到5分)和房东的名字。研究人员将这些虚构的名单分配给那些名字“明显是非裔美国人或白人”的主人,这是基于之前确定种族偏见的研究。参与者评估了他们租房的可能性。

在实验的后半部分,参与者被告知一项研究发现,该发现解释了主持人的种族如何影响评分。然后,研究人员向参与者展示了一组评分,并要求他们评估(以1到7的等级)偏见影响评分的可能性有多大。

参与者看到的要么是他们自己的评分,要么是伪装成算法的自己的评分,要么是伪装成别人的评分,要么是基于他们偏好的实际算法评分。

研究人员重复了几次这个设置,测试了Lyft司机和Airbnb房东资料中的种族、性别、年龄和吸引力偏见。每次的结果都是一致的。那些认为自己看到了算法评分或其他人评分的参与者(无论他们实际上是否如此)更有可能在结果中感知到偏见。

Morewedge将此归因于我们用来评估他人偏见和自己偏见的不同证据。他说,既然我们对自己的思维过程有了深入的了解,我们就更有可能追溯自己的思维,并认定它没有偏见,也许是受到了影响我们决策的其他因素的影响。然而,在分析别人的决定时,我们所要判断的只是结果。

Morewedge说:“假设你正在为一场活动组织一个演讲小组。“如果所有这些演讲者都是男性,你可能会说结果不是性别偏见的结果,因为你在邀请这些演讲者时甚至没有考虑到性别。但如果你参加这个活动,看到的是一个全是男性演讲者的小组,你更有可能得出这样的结论:在选择中存在性别偏见。”

事实上,在他们的一项实验中,研究人员发现,更容易出现这种偏见盲点的参与者,在决策中也更容易看到算法或其他人的偏见,而不是他们自己的决策。在另一项实验中,他们发现,与种族等偏见相比,人们更容易看到自己的决定受到相当中立或合理的因素的影响,比如Airbnb房东的星级评级。Morewedge认为,这可能是因为承认自己更喜欢五星级的租房,并不会威胁到一个人的自我意识,也不会威胁到别人对我们的看法。

作为镜子的算法:看到并纠正人类的偏见

在研究人员的最后一个实验中,他们让参与者有机会纠正自己的评分或算法的评分(真实与否)中的偏见。人们更有可能纠正算法的决定,这减少了评级的实际偏差。

他说,这对Morewedge和他的同事来说是至关重要的一步。对于任何想要减少偏见的人来说,能够看到偏见是第一步。他们的研究提供了证据,证明算法可以被用作镜子——一种识别偏见的方法,即使人们看不到自己的偏见。

“现在,我认为关于算法偏见的文献是黯淡的,”Morewedge说。“很多人说,我们需要开发统计方法来减少算法中的偏见。但问题的一部分是偏见来自于人。我们应该努力让算法变得更好,但我们也应该努力让自己少一些偏见。

他说:“这项工作令人兴奋的地方在于,它表明算法可以编纂或放大人类的偏见,但算法也可以成为帮助人们更好地看到自己的偏见并纠正它们的工具。”“算法是一把双刃剑。它们可能是放大我们最坏倾向的工具。算法可以成为一种工具,帮助我们变得更好。”

更多信息:Carey K. Morewedge等人,《人们在算法中看到更多的偏见》,《美国国家科学院院刊》(2024)。DOI: 10.1073 / pnas.2317602121。doi.org/10.1073/pnas.2317602121

波士顿大学提供

引文:算法中的偏见能帮助我们看清自己吗?(2024, 4月9日)检索自https://phys.org/news/2024-04-bias-algorithms.html

本文档受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。


 

海招网声明:未经许可,不得转载。