/AI性别歧视吗?订阅

亚马逊最近取消了一个实验性的人工智能(AI)的招聘工具,被发现对女性有偏见。在这一点上,我希望你可能会有一些问题,如:什么是AI招聘工具和它是如何工作的呢?为什么它对女性有偏见吗?我会尽量回答你的问题在下面。
AI招聘工具
你肯定听说过人类的招聘人员。他们是潜在雇主和雇员之间的媒人。他们旅行,把寒冷的电子邮件,并在会议和招聘会“网络”。当招聘人员做一个成功的比赛,他们得到报酬,有时一方,有时由。如您所见,这个相亲舞蹈常常是昂贵和费时的。技术可以帮助,对吗?人力招聘人员可以检查每天最多几十个申请者,在她累了。相比之下,人工智能在几秒钟内可以“读”成千上万的应用程序并将它们排序基于期望的标准,显示顶部的最有前途的候选人。这是可以理解的,而人类的招聘人员,招聘一个AI将更多的时间和成本效率。现在人类的招聘人员不需要筛选,候选人排名,她可以把她的时间接触最好的候选人,争取他们接受报价。 What nice team-work between the human and AI recruiters!
不幸的是,事情并没有那么简单。我们如何确保AI招聘人员被公平对待所有候选人吗?可以解释为什么它没有显示任何女人一定职位空缺吗?为了回答这些新问题,我们需要了解人工智能工具“学”来完成其工作。
这一切开始于一个大“培训”的工作应用程序中。多年来,公司一直要求求职者在线提交所有的材料。例如,如果你一直在学术就业市场,你可能被要求上传你的简历,求职信,推荐信在一个网站像AcademicJobsOnline.org。像亚马逊和谷歌这样的大公司,不像大学,管理自己的求职网站。因此,随着时间的推移,他们已经积累了成千上万的申请材料,所有以电子形式。此外,他们在他们的工作记录,申请人成功狩猎。因此,他们有申请人所提交的材料的例子被申请人雇佣和被否决。这些信息然后给人工智能工具来“学习”的特点,反映了一个成功的候选人。在亚马逊的工具的情况下,人工智能“学习”,“执行”和“捕获”的简历与成功。与此同时,它还“学习”一词的存在像“女性的”(如“女子国际象棋队长”)与拒绝,所以相应的简历是降级。
人工智能,尽管所有的炒作(它将拯救地球和所有的恐惧它会杀死人类),不是,实际上,聪明。也不知道一个单词像“女性”的含义,以及它如何对应于现实世界中的实体。这种人工智能只是擅长发现模式和发现数据间的关系我们给它。所以我们提供的数据的人工智能,我们告诉它做什么,就是最重要的。
为什么AI工具对女性有偏见?
亚马逊的员工匿名告诉路透社说,人工智能工具将应用程序的两个女人的大学毕业生,如果没有指定哪个大学。这个细节是强迫我写些什么工具。
我是一个女人计算机科学教授在韦尔斯利学院教授人工智能,这是一个女子学院。亚博永久官网是典型的文科学院,我的学生不仅学习计算机科学和数学课程的专业,但也在社会科学课程,艺术和人文学科课程与标题如“妇女与性别研究概论”“几乎触摸天空:女性成长的故事,”或者“从Mumbet到米歇尔·奥巴马:黑人女性的历史。“他们更有可能比其他学生有“女子”工作申请材料。一些学生甚至可能在池的申请者视为“不配招募”亚马逊的人工智能工具。
每天,我都站在教室前的聪明的女人,渴望了解算法的美丽和力量。它痛苦我发现一个主要玩家像亚马逊创建和使用的算法,最后,可以被用来镇压他们的梦想在世界上留下了自己的印记,否认他们有机会加入团队的工程师正在设计和构建我们的现在和未来的技术。
为什么AI工具降低女性的简历?两个原因:数据和值。女性的工作没有被推荐的AI工具在软件开发中。软件开发研究在计算机科学中,一门学科的入学已经看过很多起伏过去二十年。例如,2008年,当我加入韦尔斯利,只有6个学生拥有计算机科学学位毕业。相比之下,55 2018年毕业生,增长了9倍。亚马逊美联储AI工具应用历史数据收集了超过10年。那些年最可能与CS的干旱年份。在全国范围内,女性已经收到18%的计算机科学学位超过十年。代表名额不足的女性在技术上的问题是一个著名的现象,人被写自2000年代初。亚马逊的数据用于训练的AI反映这种性别差距依然存在:很少有女性正在研究CS在2000年代和更少的被雇佣的科技公司。与此同时,妇女也放弃,而臭名昭著其可怕的治疗的女性。所有条件都相同的情况下(例如,计算机科学和数学课程的列表由女性和男性候选人,或项目工作),如果女性没有聘请在亚马逊工作,人工智能“学会”,诸如“女性”的存在可能预示着候选人之间的区别。因此,在测试阶段,它惩罚申请者在简历这句话。AI工具成为有偏见,因为它是美联储从真实世界的数据,封装现有的对女性的偏见。此外,值得指出的是,亚马逊是唯一的五大科技公司(另一些苹果,Facebook、谷歌和微软),这并没有揭示女性的比例在技术岗位工作。这种缺乏公开披露只会增加亚马逊的固有的偏见对女性的叙事。
亚马逊的团队可以预测吗?这就是价值观发挥作用。硅谷公司是世界著名的为他们的新自由主义的观点。性别、种族和社会经济地位无关他们的招聘和保留实践;只有人才和显而易见的成功。所以,如果弱势妇女和有色人种,因为他们也可能是生物有限公司在科技行业取得成功。性别歧视的文化规范或缺乏成功的榜样,让妇女和有色人种远离田野不是罪魁祸首,根据这个世界观。
认识到这样的结构性不平等要求致力于公平和公正是一个基本驱动值决策。如果你减少人类一个单词列表包含课程、学校项目,和课外活动的描述,你订阅一个很幼稚的看法是“天才”或“成功。“性别、种族和社会经济地位通过文字传达一份简历。或者使用一个技术术语,它们隐藏变量生成简历内容。
最有可能的是,人工智能工具是对女性不仅有偏见,但其他更少的特权集团。想象一下,你有三份工作为你的教育工作。你会有时间来生产开源软件(无薪工作,有些人为了好玩)或参加不同的单独的每个周末吗?可能不会。但这些是你需要的类型的活动来“执行”和“捕获”这样的词在你的简历中,人工智能工具的“学习”视为一个理想的候选人的迹象。
让我们不要忘记,比尔•盖茨(Bill Gates)和马克•扎克伯格(Mark Zuckerberg)都能从哈佛退学追求梦想的建筑科技帝国,因为他们已经学习代码和职业中学以来科技有效地培训。科技公司的创始人和首席执行官的列表是由专门的男性,大多是白色,在富裕家庭长大。特权,在几个不同的轴,引发他们的成功。
人工智能不是过错。的扭曲的价值观,什么是成功的在科技行业是罪魁祸首。我们需要使这些值,像亚马逊这样的公司负责继续遵守它们。他们必须负责从根本上不公平的做法减少人类“袋”的简历,而不是培育和推进他们的人类潜力。
图片来源:pathdoc,“卡通机器人坐在符合申请面试。”上面。网络。10月30日,2018年。