人工智能给女性求职者打低分亚马逊被迫解散研究团队

 行业新闻     |      2021-08-31 07:00
本文摘要:自2014年以来,美国亚马逊机器学习小组依然在秘密开发,用于审查求职者履历的计算机程序中,期待着能智能化寻找顶级人才的工作。但是专家找到了新的招聘引擎并不讨厌女性。亚马逊最后于去年年初退出了研究小组。 效率化市场需求推进机器学习无论在仓库内部还是在推进价格决定方面,自动化都是亚马逊电子商务主导地位的关键。由于低成本计算能力的急剧增加,机器学习在技术领域更受欢迎。亚马逊的智能招聘实验从这个世界上仅次于网上零售商的重要时刻开始了。

鸭脖app下载

自2014年以来,美国亚马逊机器学习小组依然在秘密开发,用于审查求职者履历的计算机程序中,期待着能智能化寻找顶级人才的工作。但是专家找到了新的招聘引擎并不讨厌女性。亚马逊最后于去年年初退出了研究小组。

效率化市场需求推进机器学习无论在仓库内部还是在推进价格决定方面,自动化都是亚马逊电子商务主导地位的关键。由于低成本计算能力的急剧增加,机器学习在技术领域更受欢迎。亚马逊的智能招聘实验从这个世界上仅次于网上零售商的重要时刻开始了。

根据监督机构的文件,2015年6月以来,亚马逊全球员工人数减少了57万人以上的两倍多。为了减轻人力资源部门激增的工作压力,提高其生产率,亚马逊爱丁堡工程中心成立了研发团队,目标是开发人工智能技术,缓慢捕捉网络信息,找到一点募捐的候选人该公司的实验招聘工具与购物者对亚马逊上销售的产品的评价一样,人工智能用于为求职者获得从星星到五星的评价。研究者希望这个采用软件能超过“不吞并前5名,向软件输出100份履历,公司可以优先雇佣”的目标。人工智能采用软件“重男轻女”接受了训练,亚马逊的计算机模型自学了过去10年向公司提交的履历,找到了固有的模型,据此审查了申请人。

但是,从2015年开始,亚马逊在审查软件开发和其他技术职位的申请人时意识到,这个招聘系统并不性别中立。由于许多申请人是男性,这体现了整个科技行业男性主导地位的现实。研究小组建立了专注于500个特定工作功能和职位的计算机模型。

鸭脖app下载

他们教各型号识别过去候选人履历中经常出现的约5万个单词。这些算法对IT应用程序中罕见的技能(例如编写各种计算机代码的能力)完全不重要。无视,这项技术不利于在男工程师的履历中用“继续”“捕捉”等罕见的动词陈述自己的候选人。

实际上,亚马逊系统自学得出了男性候选人更是是非的结论。系统处罚了“女子国际象棋俱乐部的队长”等包含“女性”一词的履历。系统还减少了2名只有女子大学毕业生的评级。

亚马逊试图改版程序,对特定术语保持中立。但是,不保证用其他方法对可能歧视的候选人进行分类。性种族歧视也不是唯一的问题。反对模型判别的数据也有问题。

这意味着不合格的候选人经常被介绍到各种岗位。亚马逊去年年初退出了这个队。因为高管们对这个项目失去了信心。

算法公平的道路都是根据人才软件公司“职业创造者”2017年的调查,约55%的美国人力资源经理回答的,在今后5年人工智能将成为他们工作的通常部分。长期以来,员工梦想利用技术扩大招聘网络,增加对招聘者主观意见的依赖。但是亚马逊的终结案例,让很多谋求招聘流程自动化的大企业学到了教训。

卡内基梅隆大学的机器学习专家回答说,如何保证算法公平、可靠地解读、能解释的道路非常远。《麻省理工技术评论》在这次事件的报道中认为,不能认为人工智能是没有内在偏见的。用有偏见的数据训练系统,意味着著算法也没有偏见。如果在执行前找不到这种不公平的人工智能招聘计划,就不会解决问题,而是继续长期存在于商业中的多样性问题。


本文关键词:人工智能,给,鸭脖app官网,女性,求职者,打,低分,亚马逊,自

本文来源:鸭脖app下载-www.atelier-anone.com