一位女士站在办公室里,穿着得体,指着屏幕,向坐在桌子上的一群人做演示。

有人让您意识到驱动机器学习以及更广泛的人工智能 (AI) 的算法和数据有可能重复过去的偏见吗?

有人告诉你如何做亚马逊停止使用他们的人工智能招聘工具因为训练数据着眼于过去的成功,所以它表现出对女性的偏见? 

尽管人工智能存在偏见,亚马逊和其他科技公司仍继续从开发基于人工智能的解决方案中受益。所有企业都应该如此。

以下五本建议读物旨在提高人们对可信赖人工智能这一主题的认识,首先了解其原理,然后再看一些应用示例,并提醒人们应将基于人工智能的工具的道德优点与不基于人工智能的现状进行比较。  

1 人工智能道德准则的全球格局

作者:Anna Jobin、Marcello Ienca 和 Effy Vayena。 自然机器智能 2019.

没有单一的道德要求、技术标准或最佳实践来实现道德和值得信赖的人工智能。

乔宾和她的同事在文章中讨论了围绕五项道德原则的全球趋同:透明度、正义和公平、非恶意、责任和隐私。

通过这样做,作者设法让读者熟悉有关人工智能的广泛道德问题以及道德要求的不同解释。

2 值得信赖的 AI 道德准则

欧盟委员会 2019.

组织可能想要申请具体准则以及演示如何 它们适用道德原则。

为了开发值得信赖的 AI 并在整个项目生命周期中展示适当的实施策略,我建议遵循一组特定的准则,例如欧盟值得信赖的 AI 道德准则.

根据准则,值得信赖的人工智能应该:合法、道德和稳健。具体来说,欧盟指南建议人工智能系统应满足七项关键要求,才能被视为值得信赖。

为了帮助组织验证欧盟提供的每项关键要求的应用情况详细评估清单可以在这里找到,而顾问麦肯锡有写了一份分析对企业的影响。

Jobin、Ience 和 Vayena 的论文将他们概述的五个主要领域与欧盟指南进行了比较。请注意,由于人工智能是一个相对较新的领域,因此指南不是尚未 欧盟强制性法规,与《通用数据保护条例》(GDPR) 等不同。

3 机器行为

作者:Iyad Rahwan 等人。 自然 2019.

清晰的指导方针往往给人一种易于遵循的“清单”的印象,然而,对于人工智能道德来说,情况远非如此。

本文阐述了与人工智能伦理相关的一些多方面问题。例如,作者解释了数据的缺陷如何显着影响结果。

他们还讨论了一方面源代码和训练数据通常是开发人员专有的,因此对用户隐藏,而另一方面开源编程算法可能过于复杂且难以解释。

或者,支撑特定人工智能工具的算法可能非常简单,但是,如果用户需要它们做出充分的判断,结果可能会非常复杂,而且又太困难。

4 Rho AI:利用人工智能应对气候变化:融资、实施和道德

作者:Isabel Fischer、Claire Beswick 和 Sue Newell。信息技术学报教学案例2021.

不同机器行为,提供了大量示例,这是一个人工智能案例,说明了如何在商业决策的背景下考虑道德因素。

在本例中,Rho AI 是一种扩展项目,旨在开发一种投资工具,利用机器学习和自然语言处理来衡量组织的环境、社会和治理 (ESG) 绩效。

这提醒我们,即使有道德目标并试图做好事,初创企业、规模化企业和大型组织也需要考虑财务限制和潜在的权衡,以除了值得信赖的人工智能之外开发可持续的商业模式。该案例还提醒读者需要稳健的数据作为稳健算法的先决条件。

5 建立 AI 信任:iKure + IBM 数据科学和 AI 精英团队消除偏见,改善医疗保健结果

詹妮弗·克莱门特撰写。IBM 2020。

本文是研究人员声称使用人工智能减少偏见以改善医疗保健结果的众多例子之一。

然而,这并不是对研究结果的认可。在前四篇文章中讨论了有关可信人工智能的一些担忧之后,重要的是要提醒读者,非人工智能现状也存在道德挑战。

人工智能解决方案可能有局限性,但人工智能建议 - 尤其是在人类监督和“人机交互人工智能”的情况下 - 可能比现状更道德、更有效。

伊莎贝尔·费舍尔是信息系统管理学副教授(读者),教授数字化转型课程高级工商管理硕士高级工商管理硕士(伦敦)。她还在上讲授数字营销技术和管理信息系统与数字创新管理硕士和套件商科硕士课程。

如需了解有关未来工作的更多文章,请注册 Core Insights这里.