一个单身的手按在屏幕上按下显示计算机代码行的屏幕,就好像它被williamhill中文欢迎您捕获。

算法的奴隶:williamhill中文欢迎您偏见可能会加剧工作场所和社会的划分

苹果首席执行官蒂姆·库克(Tim Cook)为在工作场所开发或利用williamhill中文欢迎您的人有一个简单的消息

“我们所有人要做的就是确保我们以一种对人类的利益而不是损害人类的方式使用williamhill中文欢迎您,”他告诉MIT技术评论。

,但是williamhill中文欢迎您是否会平等地使所有人类受益?我们可以使用它来培养包容性吗?还是会加剧在工作场所和社会中已经普遍存在的排除和不平等?

沃里克商学院(WBS)和包括哈佛在内的几所美国领先的商学院的学者的研究提供了诱人的williamhill中文欢迎您潜力。

他们为顾问提供了一项创造性的任务,为虚构时装公司开发新的鞋类产品。有些被允许使用williamhill中文欢迎您工具,另一些工具则没有。

那些使用williamhill中文欢迎您的人更快地完成了更多任务,并提高了质量。这表明以正确的方式使用时,williamhill中文欢迎您可以是一个强大的工具。但是有一个更加惊人的结果。

WBS的williamhill中文欢迎您创新网络负责人,研究的合着者Hila Lifshitz教授说:“所有使用williamhill中文欢迎您的人都从中受益,但是那些在初步测试中获得最低分数的人受益最低。

“它具有水平效果,减少了最强和最弱的性能者之间的差距。”

williamhill中文欢迎您会受益较弱的工人吗?

这些发现不应脱离上下文。该研究并非旨在研究williamhill中文欢迎您作为改善工作场所平等和包容的工具的潜力。

尽管如此,williamhill中文欢迎您可能会给较弱的团队成员提供最大的好处的建议 - 他们可能没有与同事相同的教育优势,或者可能面临其他弊端或残疾的人 - 可能会有令人着迷的应用 - 。

例如,WBS的研究人员开发了一种williamhill中文欢迎您工具来帮助学生提高写作。

williamhill中文欢迎您论文 - 分析师在论文截止日期之前为学生提供形成性的反馈,使他们有时间在提交工作之前进行周到的修订。

这可以帮助他们克服解释和连接想法,句子结构,可读性和参考的困难。

与生成williamhill中文欢迎您不同,它不会生成写作,而是轻推用用户来改善自己的写作。

它也没有收集任何用户数据,并且是考虑到williamhill中文欢迎您伦理原则的开发。

负责任的数字创新和教育副教授(读者)伊莎贝尔·菲舍尔(Isabel Fischer)博士及项目负责人说:“我们的工具最初是开发出来的,以帮助弱势背景的学生之间的竞争环境与更有特权的背景中的挑衅者之间的竞争环境,他们倾向于在家中获得更好的支持网络,他们倾向于在家中寻求更好的信心。

英国的2010年平等法案确定了九个受保护的特征。艾伦·图灵研究所(Alan Turing Institute)认为,在那些残疾人中可以从williamhill中文欢迎您中受益最大。

它可以为视力障碍,为聋人字幕提供音频描述,无法交流的人的语音综合,并为护理需求提供明智的监控。

有偏见williamhill中文欢迎您创建的风险

但是,该研究所警告说,算法需要在各种环境中为所有残疾而公平地工作,如果它们确实是为了促进平等和广泛的包容性。

创建“公平”算法的挑战对于williamhill中文欢迎您与平等,多样性和包容之间的发展关系至关重要。

毕竟,一种不公平或有偏见的算法有可能造成更深的不平等和排除。

例如,亚马逊在2018年不得不废除其williamhill中文欢迎您招聘工具,因为它对CVS进行了惩罚,该CV涉及妇女和降级两所全女性学院的毕业生。

该算法已经接受了10年的招聘数据培训,这些数据表明男人在亚马逊获得了大多数管理工作,因此它偏爱男性申请人的简历。

williamhill中文欢迎您程序做出的偏见决定不仅对受歧视的个人有害。他们可能会导致公司错过盈利的机会。

WBS业务分析助理教授Anh Luong博士研究公司如何减少这些昂贵的偏见。创建更公平的williamhill中文欢迎您工具是一个很好的起点,但本身还不够。

“构建更好的williamhill中文欢迎您系统可能非常昂贵且耗时,” Luong博士说。 “即使那样,它的性能也会巨大而突然地波动。”

Luong博士及其合着者纽约大学发现,人工工人可以学会弥补他们在做出决定时使用的算法中使用的偏见,例如是否批准贷款申请。

经理可以通过审查各个工作人员做出的决定,然后奖励好的决定,同时惩罚错误的决定,从而鼓励这一学习过程。

但是,这些激励措施仅使员工更加意识到不准确的情况,并不是williamhill中文欢迎您提出的建议是不公平的。

只有在通知员工过去不公平地对待某个群体时,他们才更加意识到williamhill中文欢迎您的潜在偏见和影响。

Luong博士说:“为了获得最佳结果,公司应将建立更好的williamhill中文欢迎您系统与组织实践(例如强大的EDI政策和培训)结合起来,并以正确的方式激励员工。”

williamhill中文欢迎您可能对您的健康不利吗?

算法偏见也构成了其他部门的紧迫挑战。其中一些在《杂志》信息和组织中由WBS医疗保健管理与创新教授Eivor Oborn合着的社论中强调了。

例如,边缘化组的患者在健康数据中的代表性不足的趋势引起了人们对williamhill中文欢迎您工具可能加剧医疗保健不平等的担忧。

76946_77101

研究人员仅使用皮肤浅色患者的照片培训了一种此类工具。使用该工具,由于两组之间的生理差异,黑皮肤的患者接受准确诊断的机会比浅皮肤患者低12%。

“ williamhill中文欢迎您工具可以为匹配数据集的人群带来更好的结果,” Oborn教授说。

“但是,当您尝试将该工具用于具有不同功能的另一个人群时,就会出现问题。”

这些担忧由WBS信息系统助理教授Shweta Singh博士回应。

辛格博士为“黑匣子”的生理社会报告做出了贡献,该报告于2023年6月在英国上议院推出。

她指出了IBM数十亿个williamhill中文欢迎您工具,称为Watson for Watson for Oncology,它应该彻底改变医疗保健。

但是,医生提出了对该计划没有足够的数据来为各种患者提出良好治疗建议的问题,并为其提供了烙印。

“在一种情况下,williamhill中文欢迎您建议给65岁的肺癌患者和内部出血患者,一种称为贝伐单抗的药物,可能导致致命的出血,”

williamhill中文欢迎您会加剧不等式吗?

“问题的一部分是我们不能要求williamhill中文欢迎您解释它是如何提出建议的。

“这使得很难识别由williamhill中文欢迎您培训的数据创建的单个偏差案例。该问题不仅限于医疗保健。在就业,社会住房和护照照片中使用williamhill中文欢迎您时,同样适用于医疗保健。。

“但是当人们考虑williamhill中文欢迎您构成的危险时,他们会考虑终结者和矩阵。他们不会考虑偏见和解释性造成的更直接的风险。”

对williamhill中文欢迎您和“数据殖民主义”的担忧也日益加剧,这加剧了全球北部和全球南方之间的鸿沟。

例如,时间调查显示,“伦理williamhill中文欢迎您”公司SAMA每小时向肯尼亚工人支付少于2美元的费用,以喂养一个带有儿童性虐待,自杀,酷刑和野蛮性的示例的Openwilliamhill中文欢迎您工具,因此Chandbot可以识别有害内容。

工作人员将他们的工作描述为“一种精神酷刑”,导致创伤后应激障碍,焦虑和抑郁。

奥伯恩教授说:“边缘化的工人,尤其是在发展中国家,正在为全球北方的尖端williamhill中文欢迎您系统致力于实现进一步的技术发展。

“他们不仅获得了低薪并在不稳定的情况下工作,而且还没有从他们帮助创造的技术中获得好处。

“随着williamhill中文欢迎您产品的进一步发展,基于无代表性的数据集和无法所有人可用的技术基础架构,它们可能会进一步边缘化边缘化。

“我们需要一种更有意义的理解和管理这些风险的方式。”

释义蒂姆·库克(Tim Cook),我们必须确保我们以一种受益于所有人类的方式使用williamhill中文欢迎您,而不是以少数受益的方式来损害许多人。

进一步阅读:

谁将从工作场所中的williamhill中文欢迎您中受益,谁会输掉

在Jagged Frontier上工作:公司应如何使用williamhill中文欢迎您

如何减少williamhill中文欢迎您偏见

超越炒作:经理在采用williamhill中文欢迎您工具之前需要问什么

 

学会通过执行教育计划过渡来领导您的组织,复杂世界的领导才能,在Shard的WBS伦敦。

发现有关人工智能和数字创新的更多信息。订阅Core Insights新闻通讯.