与外观相似的机器人。

Stephen Hawking曾经说过:“创建AI的成功将是人类历史上最大的事件。不幸的是,这也许也是威廉希尔williamhill中文官方网站的最后一次,除非威廉希尔williamhill中文官方网站学会了避免 风险

如果威廉希尔williamhill中文官方网站要挑战霍金教授预见的风险,威廉希尔williamhill中文官方网站需要首先了解它们。

今天AI是威廉希尔williamhill中文官方网站见过的最具变革性的技术。从虚拟助手到威廉希尔williamhill中文官方网站的社交媒体和购物应用程序,威廉希尔williamhill中文官方网站接触的大多数技术都是由AI驱动的。它影响了威廉希尔williamhill中文官方网站生活的几乎每个领域,包括威廉希尔williamhill中文官方网站的健康,财富,社会生活和未来的机会。

具有如此普遍且强大的存在,威廉希尔williamhill中文官方网站使用的AI最终必须值得信赖。这需要AI具有四个基本特征 - 必须公平,必须是道德的,必须是透明的,并且必须减少或减轻任何算法偏见或歧视。这就是威廉希尔williamhill中文官方网站所说的负责人的意思。

,但今天的AI声誉不佳 - 最近的历史上有不愿歧视的例子。从个人申请贷款,工作,住房的那一刻起,软件就开始做出低级决策,通常会对边缘化社区的人们产生可怕的影响。

采用美国当局使用的AI评估电势累犯风险 (被告重新犯罪的可能性)。

美国法官使用Compas算法来帮助决定是否批准保释 - 但是,该算法错误地将黑人被告归类为“高风险”,并暗示他们是将来对未来犯罪的犯罪犯罪的两倍。

还有许多其他AI显示种族偏见的实例 - 英国当局使用的面部分析算法检查护照图片被证明缺乏黑人 -将嘴唇误认为张开的嘴有些instances。

公司开始认识其职责。今年6月,微软宣布将退休许多AI驱动的面部分析工具,例如情感识别软件,因为他们担心这些工具是“不科学的”,并且易于滥用。

软件巨头还限制了模仿真实声音的AI驱动功能 - 在创建DeepFake Audio时可能会滥用。

发生歧视时,威廉希尔williamhill中文官方网站将责备基础软件。但这是技术的错还是真正的问题在其他地方?

今天,威廉希尔williamhill中文官方网站有一个基于三个元素的AI近视模型 - AI训练数据,算法(生成结果)和实际输出。当AI模型加剧了偏见和歧视时,威廉希尔williamhill中文官方网站将这三个要素之一归咎于这三个要素之一。但是,真正的解决方案在于理解人类偏见的根源。

人类,而不是AI,应归咎于歧视

我的论点是:如果您想了解AI,则必须了解人类的行为。 威廉希尔williamhill中文官方网站都是天生的公正,但随后从诸如文化,语言,社会,同伴,价值观等广泛影响的范围内学习偏见。 

AI今天只是通过更强大的镜头来揭示深度根深蒂固的社会歧视。相反,威廉希尔williamhill中文官方网站应该询问这些偏见在社会中出现在技术领域之前如何起源。

这项工作不仅需要计算机科学,而且还需要心理学,社会学,经济学,哲学,行为科学 - 威廉希尔williamhill中文官方网站必须利用所有这些来了解威廉希尔williamhill中文官方网站如何成为威廉希尔williamhill中文官方网站的现实。

威廉希尔williamhill中文官方网站通过语言来解释世界,威廉希尔williamhill中文官方网站正在使用AI来理解语言中的单词含义如何在包括威廉希尔williamhill中文官方网站的文化,社会,价值观和教育在内的多维空间中关联。

这有助于威廉希尔williamhill中文官方网站了解这些元素如何创建对世界的理解层,以及如何剥离这些层 - 这就是威廉希尔williamhill中文官方网站作品的美丽。

如果威廉希尔williamhill中文官方网站能够理解这些连接的工作方式,威廉希尔williamhill中文官方网站可以开始看到偏见如何渗入人类的思想。  最终,威廉希尔williamhill中文官方网站希望将这种责任置于影响威廉希尔williamhill中文官方网站所有人的AI中。

在另一个研究项目中,威廉希尔williamhill中文官方网站正在努力确保威廉希尔williamhill中文官方网站今天使用的AI值得信赖。在这里,威廉希尔williamhill中文官方网站正在努力建立另一层AI,该层将位于当前模型上方,并创建对信任至关重要的元素 - 公平,道德,透明度和缓解偏见 -技术修复用于技术。  

您如何在社交媒体上进行分类 - 例如,在Tiktok上,该平台在年轻用户中非常受欢迎 - 合法但有害?

Tiktok的秘密算法测量了用户的偏好和行为,并将相关的内容驱动到它们 - 利用其脆弱性以最大化屏幕时间。随着平台越来越受欢迎,其造成更大伤害的潜力也随之而来。

这是不可能手动监视的 - 社交媒体会生成大量数据,并且超出了人类内容主持人的范围,可以保持跟踪。今天,Tiktok使用人类和AI驱动的主持人尝试检查有害内容。

设计更负责任的AI

在沃里克(Warwick),威廉希尔williamhill中文官方网站正在设计一种AI,它可以像人类一样表现出来,可以发现与自杀,自杀,网络欺凌,厌食和仇恨言论相关的有害内容。

威廉希尔williamhill中文官方网站的原型增加了一层责任,该责任层面是一条艰难的道路,旨在适度内容并限制危害而不违反基本的人权;言论自由。这需要一定程度的技术复杂性,这比社交媒体公司(例如Meta(以前称为Facebook))的节制工作一步。

在WBS,威廉希尔williamhill中文官方网站还向立法者提供有关如何提高公众对AI的信任以及如何在计划的立法之前负责任地部署它以规范技术的使用。

明智地使用,人工智能可以利用丰富的信息接缝并为社会提供宝贵的见解,数据可能来自不太可能的来源。

今天,在西方 - 在西方制定的政策是由白人制定的,他们可能对边缘化社区的生活几乎不了解。您如何开始了解他们遇到的问题和设计可以针对这些问题的问题?

通过使用AI分析半个世纪以上说唱音乐的语言,威廉希尔williamhill中文官方网站开始通过自己的声音来了解非裔美国人社区的关注。

在此项目中,威廉希尔williamhill中文官方网站设计了一个负责任的AI,可以弥合其问题之间的差距 - 由说唱歌手表达 - 和足够的策略解决方案。

威廉希尔williamhill中文官方网站还利用AI筛选出愤怒中产生的Twitter数据 - 杀害乔治·弗洛伊德(George Floyd),并在大规模枪击等暴行之后,评估这些抗议活动如何转化为政策。

我的愿景是利用AI的力量,并与当局和行业齐头并进,以设计负责的AI技术以产生积极影响。

AI可以在更深层次上理解歧视和偏见的起源可能是开创性的。  威廉希尔williamhill中文官方网站 - 学者,商业,政府 - 必须面对这一责任。如果威廉希尔williamhill中文官方网站不这样做,谁会?

信息系统与管理助理教授Shweta Singh博士探索了人工智能的演变及其影响。

为自己提供技能和知识,以推动组织中的数字化转型和创新行政教育计划.