AI性别歧视吗?韦尔斯利计算机科学教授看着最近亚马逊招募实验

三个人类和机器人坐在外面面试房间。
提供的照片在上面
2018年11月9日

这篇文章最初发表在的讲话的博客,t他玛德琳戈倍尔奥尔布赖特全球事务研究所,,是由埃尼Mustafaraj在韦尔斯利计算机科学助理教授。

亚马逊最近取消了一个实验性的人工智能(AI)的招聘工具,被发现对女性有偏见。在这一点上,我希望你可能会有一些问题,如:什么是AI招聘工具和它是如何工作的呢?为什么它对女性有偏见吗?我会尽量回答你的问题在下面。

AI招聘工具

你肯定听说过人类的招聘人员。他们是潜在雇主和雇员之间的媒人。他们旅行,把寒冷的电子邮件,并在会议和招聘会“网络”。当招聘人员做一个成功的比赛,他们得到报酬,有时一方,有时由。如您所见,这个相亲舞蹈常常是昂贵和费时的。技术可以帮助,对吗?人力招聘人员可以检查每天最多几十个申请者,在她累了。相比之下,人工智能在几秒钟内可以“读”成千上万的应用程序并将它们排序基于期望的标准,显示顶部的最有前途的候选人。这是可以理解的,而人类的招聘人员,招聘一个AI会更多的时间——和有成本效益的。现在人类的招聘人员不需要筛选,候选人排名,她可以把她的时间接触最好的候选人,争取他们接受报价。 What nice teamwork between the human and AI recruiters!

不幸的是,事情并没有那么简单。我们如何确保AI招聘人员被公平对待所有候选人吗?可以解释为什么它没有显示任何女人一定职位空缺吗?为了回答这些新问题,我们需要了解人工智能工具“学”来完成其工作。

这一切开始于一个大“培训”的工作应用程序中。多年来,公司一直要求求职者在线提交所有的材料。例如,如果你一直在学术就业市场,你可能被要求上传你的简历,求职信,推荐信在一个网站像AcademicJobsOnline.org。像亚马逊和谷歌这样的大公司,不像大学,管理自己的求职网站。因此,随着时间的推移,他们已经积累了成千上万的申请材料,所有以电子形式。此外,他们在他们的工作记录,申请人成功狩猎。因此,他们有申请人所提交的材料的例子被申请人雇佣和被否决。这些信息然后给人工智能工具来“学习”的特点,反映了一个成功的候选人。在亚马逊的工具的情况下,人工智能“学习”,“执行”和“捕获”的简历与成功。与此同时,它还“学习”一词的存在像“女性的”(如“女子国际象棋队长”)与拒绝,所以相应的简历是降级。

完整的故事可以发现在的讲话网站