AI 帮助性别多样性可以帮助 AI?

它的什么秘密是在高新技术产业中的性别差距 ︰ 在工程和计算机科学学士学位率徘徊在 20%为妇女。

最大的讽刺是 AI 技术被磨练和实施现在实际上可以帮助增加多样性领域本身,作为科技公司杠杆机器学习程序来查明无意识性别偏见在工作场所内。

机器学习节目在市场上石板利用数据和算法以发现多样性盲点并帮助公司填补空白。但消除偏见并不只是政治上正确的;增加性别多样性可以改变以及人工智能研究的脸。

还有一种新的理论,漂浮在工程和计算机科学等这些行业妇女更有可能注册和投资如果留在外地的工夫是上来更有意义。程式,注重人性化的应用程序更好执行非常好涉及多样性 ︰ 新 UC 伯克利分校攻读博士学位发展工程中的吹嘘其就职 2014年类,50%女生入学率和麻省理工学院的 D 实验室,其目的是建立技术来改善生活的贫困,是 74%为女性。

为此,奥尔加 Russakovsky,斯坦福大学人工智能实验室,博士生创建水手,美国的第一个人工智能的夏令营活动专为少女,侧重于使用机器学习做的更好。

“在团队中的多样性带来多样性在思想,带来更好的结果”

“它成为人工智能研究同意 [需要更多多样性],但我已经谈了很多人不酷不真正理解为什么我们需要它。他们不明白在团队中的多样性带来多样性在思想,带来更好的结果,”Russakovsky 告诉主板。很快地指出该行业中的性别偏见不是任性,所以一样多样性仍然是一种事后远比它更是一个目标。

“有研究表明,妇女和少数群体往往出于人道主义的科学应用,”Russakovsky 说。”所以我们决定,……我们要特别关注教学 AI 从人道主义的角度来看.”AI 营收到 300 多份申请只是 24 点。

女孩们给出了不同的机器学习与解决一个更大的社会问题的最终目标的项目。青少年创建一个程序,可以认识到,当有人走进病房,没有洗手 — — 计算机视觉 AI 程序专门旨在减少疾病和更好的结果。他们创造了一种自然语言处理算法,用微博来援助救灾;一种程序,用于基因表达检测癌症的进展;和解决的 AI 最喜欢的宠物项目,导航和路由自动驾驶汽车更多地调动。

然而招聘领域更多的妇女是固定在工程领域中的性别差距只是一小部分。它不是足以让妇女在计算机科学课程的门,如果内部的文化使他们想要回尖叫着跑。

保留已成为多样性的新口号。多达 50%的妇女在科学、 技术和工程预计离开由于敌意的工作环境,缺乏支持系统到位在科学中,妇女和性别偏见,文化产业,无论是公开还是昏迷不醒。

Facebook 目前有员工一起通过无意识的偏置培训,课程内容主要是可爱和能力、 业绩归因、 印象和定型观念之间的权衡。谷歌对偏见,除了零星的讲习班,不断地教育每个员工以 90 分钟课程。

可以肯定的是,培训和提高认识是好的目标,但与 Facebook 和谷歌的多样性数字几乎不上年增长年,意识只有走得更远。这就是在那里 AI 进入图片。如果人类是容易犯错,即使他们不打算做,也许去了解如何人和公司认为随着时间的推移的算法可以帮助填补空白。

“多样性的技术的三个支柱是招募、 保留和偏见。我们专注于保留;帮助企业分析他们使用大数据的薄弱点,”说艾琳 · 凯里,创始人之一的 Glassbreakers,一个女性经营公司,销售的软件,利用机器学习,帮助企业确定其多样性的盲点。

本公司在其最终目标是看涨 ︰ 使 C 套房至少 50%的女性,并整体上改善女性保留在多孔的行业。

“这并不只是大约的数字,”凯利告诉主板。”公司是统计学更成功更多的妇女和少数人,他们有领导的角色,在和文化彻底改变得更好,这种情况下.”

Glassbreakers 不是独自在修复利用机器学习的多样性问题的竞赛中。公司喜欢 Textio 重点放在招聘过程中,帮助企业分析招聘信息的偏见。

而词组,如”成功的证明记录”和”压力下的保持良好”似乎理所当然的职务说明,它们还导致男性候选人不相称数目

Textio 有一个字处理工具,扫描来标识如何某些单词和语法可能出现候选人和擦洗偏从上市的公司的职位描述。而词组,如”成功的证明记录”和”压力下的保持良好”似乎理所当然的职务说明,它们还导致少数族裔的男性候选人,Textio 说。

通过快速扫描一份清单的工作,该工具提供了大量建议旨在最大限度的申请人,数目和多样化该池。大部分的变化是极其微妙。改变”特殊”到”不平凡”的 Textio,例如,是统计证明,导致更多的女性申请人。所以砍伐子弹点在广告的数量。

其他公司,像最近推出启动 Unitive,使用机器学习来帮助组织尝试消除无意识的偏见,从整个招聘过程中,顶部到底部。

统一了类似文字处理模式,使用预测分析,以帮助公司教 HR 部门和招聘经理如何审查简历和准备面试问题较少的偏见与更多的一致性。

当然,AI 有其局限性。也有其缺点,让机器自动化过程发现无意识的偏见;即,机器会反映他们非多样化的用户相同的倾向性。这是一个棘手的讽刺,机器学习具体用于打击偏见和成见不知情的情况下显示这些确切的偏见。

算法由人类行为最终难免会表现出相同的偏见,我们的目标要回避,”说:”统一创始人劳拉 · 马瑟,添加机器学习用来给的见解,但 Unitive 不干脆把带人类决策过程之外。

算法使用电报我们固有的偏好与进化的发生并不是完全罕见。就看看微软的灾难性发射的泰,它十几岁-模仿 AI Twitter 开始微博了纳粹言论和其他种族的绰号的正在交往不少于一天之内的 bot。

或者更重要的是,2015年卡耐基梅隆大学研究发现,谷歌显示广告高薪行政工作男性求职者 14 倍更往往比女性。谷歌的确切理由看似性别偏见不清楚;谷歌拒绝发表评论,除了指出,广告商可以设置为其目标人口统计参数。

你如何做当然正确,然后,在处理人类行为的不完善的数据集时?

“我们总是小心翼翼的无意识的偏见但由于算法在看 Glassbreakers 正在作出的决定,我们已经花了大量时间设计的用户体验,以减轻无意识的偏见,”解释劳伦 · 莫森索尔,Glassbreakers 首席技术官。”例如,当标记自己与任何质量标签,范围可以从 ‘怀孕’ 到 ‘残疾人’,’ 酒情人 ‘ 到 ‘瑜伽士’,你的介绍将不会看到这些标签,除非你有他们的共同点。[我们也] 使个人资料照片更小和更少重要以来被伟大的 Glassbreaker 比赛少与一个人的外表.”

积极适度并不是唯一的解决办法。卡耐基梅隆大学研究背后研究者的更好途径路线正确,以及建设新算法从零开始,避免以前歧视是运行定期的模拟测试算法的准确性。

只要我们不让我们得到最好的我们的偏见,我们可能会发现 AI 和性别多样性之间的关系是相当共生。在领域有更多的妇女可以帮助创建更聪明的 AI 做的更好。与多样性修复不同强调更多的认识,对人工智能有能力切实降低性别偏见在外地和超越。

硅鸿沟是一系列关于性别不平等在技术和科学。按照在这儿。

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据