算法的奴隶:人工智能偏见可能会加剧工作场所和社会的分歧
Apple 首席执行官蒂姆·库克向那些在工作场所开发或利用人工智能的人传达了一条简单的信息
“我们所有人必须做的就是确保我们使用人工智能的方式是造福人类,而不是损害人类,”他告诉《麻省理工科技评论》。
但是人工智能会平等地造福全人类吗?我们可以用它来促进包容性吗?还是会加剧工作场所和社会中已经普遍存在的排斥和不平等?
华威商学院 (williamhill中文欢迎您) 和包括哈佛大学在内的几家美国领先商学院的学者进行的一项研究让我们对人工智能的潜力有了一个诱人的了解。
他们给顾问一项创造性的任务,为一家虚构的时装公司开发一种新的鞋类产品。有些人被允许使用人工智能工具,有些人则不允许。
那些使用人工智能的人更快、更高质量地完成了更多任务。这表明如果以正确的方式使用人工智能可以成为一个强大的工具。但还有一个更惊人的结果。
williamhill中文欢迎您 人工智能创新网络负责人、该研究的合著者 Hila Lifshitz 教授表示:“所有使用人工智能的人都从中受益,但那些在初步测试中得分最低的人受益最多。
“它具有拉平效应,缩小了最强和最弱表现者之间的差距。”
人工智能会让弱势工人受益吗?
这些发现不应断章取义。该研究的目的并不是为了调查人工智能作为改善工作场所平等和包容性的工具的潜力。
尽管如此,人工智能可以为较弱的团队成员提供最大的好处——他们可能无法享受与同事相同的教育优势,或者可能面临其他劣势或残疾——的建议可能有令人着迷的应用。
例如,williamhill中文欢迎您 的研究人员开发了一款 AI 工具来帮助学生提高写作水平。
AI 论文分析师在论文截止日期之前为学生提供形成性反馈,让他们有时间在提交作业之前进行深思熟虑的修改。
这可以帮助他们克服解释和连接想法、句子结构、可读性和引用方面的困难。
与生成式人工智能不同,它不会生成写作,而是促使用户改进自己的写作。
它也不收集任何用户数据,并且在开发时考虑了人工智能道德原则。
负责任的数字创新和教育副教授(读者)兼项目负责人 Isabel Fischer 博士表示:“我们的工具最初开发的目的是帮助来自弱势背景的学生和来自较优越背景的同龄人之间建立公平的竞争环境,他们往往在家里有更好的支持网络,并且有信心寻求个性化反馈。”
英国 2010 年平等法案确定了九项受保护的特征。艾伦图灵研究所认为,其中残疾人可以从人工智能中受益最多。
它可以为视障人士提供音频描述,为聋哑人士提供字幕,为无法沟通的人提供语音合成,并为护理需求提供智能监控。
有偏见的人工智能带来的风险
不过,该研究所警告说,如果算法想要真正促进平等和广泛包容,就需要在各种环境下公平地对待所有残障人士。
创建“公平”算法的挑战是人工智能与平等、多样性和包容性 (EDI) 之间发展关系的核心。
毕竟,不公平或有偏见的算法有可能造成更深层次的不平等和排斥。
例如,亚马逊不得不在 2018 年废弃其人工智能招聘工具,因为它对提及女性的简历进行了处罚,并降级了两所女子大学的毕业生。
该算法根据 10 年的招聘数据进行训练,这些数据显示,亚马逊为男性提供了最多的管理职位,因此它更青睐男性求职者的简历。
人工智能程序做出的有偏见的决定不仅对受到歧视的个人不利。它们可能会导致公司错失盈利机会。
williamhill中文欢迎您 商业分析助理教授 Anh Luong 博士研究公司如何减少这些代价高昂的偏见。创建更公平的人工智能工具是一个很好的起点,但其本身还不够。
“构建更好的人工智能系统可能非常昂贵且耗时,”Luong 博士说。 “即便如此,其性能也可能会出现相当剧烈且突然的波动。”
纽约城市大学的 Luong 博士和她的合著者发现,人类工作者可以学会弥补他们在做出决策(例如是否批准贷款申请)时使用的算法中的偏差。
管理者可以通过审查个别员工所做的决定来鼓励这种学习过程,然后奖励好的决定,同时惩罚坏的决定。
然而,这些激励措施只会让员工更加意识到错误,而不是人工智能提出的建议不公平。
只有当工作人员被告知某个群体过去受到过不公平对待时,他们才更加意识到人工智能可能产生的潜在偏见和影响。
Luong 博士表示:“为了获得最佳结果,公司应将构建更好的 AI 系统与组织实践(例如强有力的 EDI 政策和培训,以及以正确的方式激励员工)结合起来。”
人工智能会对您的健康有害吗?
算法偏差也给其他领域带来了紧迫的挑战。 williamhill中文欢迎您 医疗管理与创新教授 Eivor Oborn 与人合着的《信息与组织》杂志上的一篇社论中强调了其中的一些内容。
例如,健康数据中边缘群体患者的代表性不足,这引发了人们对人工智能工具可能加剧医疗保健不平等的担忧。
人工智能在医疗保健领域的首批实际应用之一是使用机器学习算法从照片中诊断糖尿病视网膜病变。
研究人员仅使用浅肤色患者的照片训练了一种这样的工具。使用该工具,由于两组之间的生理差异,深色皮肤患者获得准确诊断的机会比浅色皮肤患者低 12%。
“人工智能工具可以为与数据集匹配的人群带来更好的结果,”奥伯恩教授说。
“但是,当您尝试将该工具用于具有不同特征的其他人群时,就会出现问题。”
williamhill中文欢迎您 信息系统助理教授 Shweta Singh 博士也表达了同样的担忧。
Singh 博士为生理学会报告《从“黑匣子”到值得信赖的医疗工具》做出了贡献,该报告于 2023 年 6 月在英国上议院发布。
她以 IBM 价值数十亿美元的人工智能工具 Watson for Oncology 为例,该工具本应彻底改变医疗保健行业。
然而,医生们担心该计划没有足够的数据来为各种患者提出良好的治疗建议,并认为该计划不安全。
“在一个案例中,人工智能建议给一名患有肺癌和内出血的 65 岁患者服用一种名为贝伐单抗的药物,这可能会导致致命的出血,”辛格博士说。
人工智能会加剧不平等吗?
“部分问题在于我们无法要求人工智能解释它是如何得出推荐的。
“这使得识别人工智能训练数据所造成的偏见个案变得非常困难。这个问题不仅限于医疗保健。在就业、社会住房和护照照片方面使用人工智能时,它同样适用。
“但是,当人们思考人工智能带来的危险时,他们会想到《终结者》和《黑客帝国》。他们不会考虑由偏见和可解释性造成的更直接的风险。”
人们越来越担心人工智能和“数据殖民主义”会加剧南北之间的分歧。
例如,《时代》杂志的一项调查显示,“道德 AI”公司 Sama 每小时向肯尼亚工人支付不到 2 美元的费用,让他们为 OpenAI 工具提供儿童性虐待、自杀、酷刑和兽交的标记示例,以便聊天机器人能够识别有害内容。
工作人员将他们的工作描述为“一种精神折磨”,导致创伤后应激障碍、焦虑和抑郁。
Oborn 教授表示:“边缘化工人,尤其是发展中国家的边缘化工人,正在为北半球国家开发尖端人工智能系统,以实现进一步的技术发展。
“他们不仅工资低、工作环境不稳定,而且没有从他们帮助创造的技术中获益。
“随着人工智能产品在不具有代表性的数据集和并非所有人都能获得的技术基础设施的基础上进一步发展,它们可能会进一步边缘化边缘化群体。
“我们需要一种更有意义的方式来理解和管理这些风险。”
套用蒂姆·库克的话,我们必须确保我们使用人工智能的方式有利于全人类,而不是有利于少数人而损害多数人的方式。
进一步阅读:
通过高管教育计划学习如何领导您的组织完成转型,复杂世界的领导力,伦敦碎片大厦 williamhill中文欢迎您。
了解有关人工智能和数字创新的更多信息。订阅核心见解简讯.