人工智能有它:那些监督人工智能的人需要接受培训和激励,以减轻人工智能偏见
当您是世界上最大的科技公司之一时,处理每份招聘广告都吸引来的海量简历是一个巨大的耗时问题。
因此,当亚马逊开发出一种人工智能 (AI) 工具来搜索数千份简历并挑选出顶尖人才供经理面试时,人力资源主管认为他们已经找到了自动化赢家。
但他们没有意识到的是,在对涵盖 10 年招聘的数据集进行训练后,AI 模型实际上了解到,在亚马逊获得工作的主要是男性,因此它会对包含“女性”一词的简历进行惩罚,例如“女子国际象棋俱乐部队长”。
路透社透露,它还降低了两所女子学院毕业生的等级。最终,亚马逊不得不在 2018 年放弃人工智能,并在算法偏差方面吸取了宝贵的教训。
基于种族、性别或年龄歧视的自动化决策对于使用人工智能的公司和受到歧视的个人来说都会产生次优的结果(因为可能会错过盈利机会)。如果要更广泛、更有效地使用人工智能,就需要解决这些初期问题。
减少 AI 社区中的 AI 偏见的努力重点是创建更公平的算法和更高质量的数据收集。
但是,williamhill中文欢迎您与巴鲁克学院的南达·库马尔 (Nanda Kumar) 和卡尔·朗 (Karl Lang) 一起进行的研究表明,在实践中,重要的不仅仅是算法的性能,还包括人工智能及其监管人员的综合过程和结果。
这既更好地反映了现实(因为大多数人工智能目前都以某种方式受到人们的监督),又提供了一种减轻人工智能偏见的方法。
人类决策者往往拥有最终决定权,并与算法一起工作。但是,人类当然会遭受有意识和无意识的偏见,这可能会强化而不是调整人工智能系统的偏见。
这就是为什么williamhill中文欢迎您相信,只有当人们受到专注于利润最大化的结构化框架的引导时,他们才是真正减少人工智能和机器学习偏见的有效手段。
williamhill中文欢迎您的研究发现,有了适当的框架,随着时间的推移,与人工智能合作的人类操作员就会学会通过识别偏差并调整自己的行为来适应其有偏差的结果。
这可以显着提高性能,最重要的是,在减少决策偏差和增加组织利润方面,它的表现优于单独工作的有偏见的人工智能。
减少人工智能偏见的框架
看来两个大脑确实比一个大脑更好,人类操作员能够补偿有偏差的算法,这也往往会使使用人工智能算法更有利可图。 效果不是立竿见影的,而是通过反复的审视和调整来实现的。
向员工提供有关他们和人工智能的表现的反馈,从而能够识别偏见,因此通过人类决策者与人工智能或机器学习模型的反复交互来进行调整。
通过反复接触,人们可以随着时间的推移学会如何克服人工智能或其所使用的数据中的任何偏见。
一直以来,人类操作员都在公司框架内工作,旨在最大限度地减少最终决策中的偏差,从而实现利润最大化。
框架必须包含激励机制,因此决策者会因人工智能批准错误决策而受到惩罚,并因做出正确决策而获得奖励。
此过程中的任何偏见都会降低公司的利润,并导致该人受到经济处罚,因此他们的行为旨在最大限度地减少人工智能带来的任何偏见,无论他们的个人观点如何。
有人认为,在某些情况下,偏见决策可能更有利可图,这可能会使任何企业决策框架变得复杂,但williamhill中文欢迎您认为这种情况很少见。
总体而言,企业目标以道德或盈利能力为中心,而盈利能力往往与偏见成反比,因为偏见决策会错失盈利机会,并且往往无法最大限度地发挥市场潜力。
人工智能学习偏差的现实示例
williamhill中文欢迎您在研究中查看的具体示例是评估银行贷款的资格。
如果大量来自代表性不足的少数民族的优质贷款申请人被拒绝,就会导致业务利润减少。
williamhill中文欢迎您单独研究了人类决策者,然后研究了人工智能加人类,每组有 50 份贷款申请。
在处理贷款申请时,人类决策者能够学习并克服人工智能偏见。
通过这个过程,改进的是人类,而不是人工智能本身,这表明在很多方面,人类可以比人工智能更具适应性,至少在现阶段是这样。
当然,williamhill中文欢迎您还必须减少人工智能本身及其所基于的数据中的偏见,但其他地方正在研究这一问题,并且可能总会存在一些偏见 - 因此教导人类纠正这一点很重要。
虽然这项研究的重点是银行贷款,但williamhill中文欢迎您相信这也适用于许多类似的情况,这些情况涉及具有二元好或坏结果的复杂决策,例如招聘、晋升或获得医疗程序以及获得信贷。
所有这些过程都有相似的复杂结构和组成,并且都会产生二元结果。
显然,williamhill中文欢迎您的研究表明,如果企业要充分利用人工智能,培训人类操作员非常重要,这意味着企业在将人工智能整合到决策过程中时需要着眼长远,他们需要给员工时间来学习和适应与人工智能一起工作的新方式。
该方法还需要在整个组织范围内进行,并进行仔细的测试和足够的时间进行培训、反馈和实践,才能正确实施。
如果组织采取这些措施,他们就可以避免像亚马逊那样犯下代价高昂的错误,但并非所有公司都能轻易吸收这一点。
进一步阅读:
什么是负责任的人工智能以及williamhill中文欢迎您为什么需要它?
组织中的人机协作决策:检查算法预测偏差对决策偏差和感知公平性的影响
安良 是商业分析助理教授,教授商业分析课程本科 程序。她还在 上讲授高级数据分析课程商业分析理学硕士。
详细了解如何使用为期四天的高管教育课程中的数据高管商业分析 在WBS 伦敦碎片大厦.
有关决策制定和分析的更多文章,请注册 Core Insights此处.