爱讯网,只关注热点资讯!

AI研究“重男轻女”要不得!sanjipiandaquan

10-16栏目:智能汇

事实上,亚马逊的系统通过自学得出了男性候选人更可取的结论。

目标是开拓人工智能技术,热点新闻, 该公司的实验性聘请工具使用人工智能为求职者提供一星到五星的评分, 《麻省理工技术评论》在此次事件的报道中指出, 性别偏见也不是唯一的问题。

长期以来,机器学习在技术领域越来越受欢迎,由于低成本计算能力的激增,研究人员希翼这个聘请软件能达到“给软件输入100份简历。

因为高管们对这个项目已失去信心,它会吐出前5名,雇主向来梦想利用技术扩大聘请网络,他们教会每个模型识别过去候选人简历中浮上的约5万个术语,快速抓取网络信息并发觉值得招募的候选人,为越来越多正在找求自动化聘请流程的大型公司提供了一个教训, 算法公平之路任重道远 依据人才软件公司“职业制造者”2017年的一项调查显示, 原标题:AI研究“重男轻女”要不得! 自2014年以来,希翼能将找觅顶尖人才的工作智能化, (记者 冯卫东) (责编:任志慧、邓楠) ,亚马逊的计算机模型学习了过去10年内提交给公司的简历,但这并不能保证机器不会依据其他方式来对可能具有卑视性的候选人举行分类,亚马逊意识到在评定软件开拓和其他技术职位的申请人时,亚马逊最终在去年年初解散了该团队,相反,自动化是亚马逊电子商务主导地位的关键,然后公司就可优先雇用他们”的目标,系统还落低了两所全女子大学毕业生的评级。

如何确保算法公平、真正可理解和可解释的道路还相当遥远,支持模型推断的数据也有问题,用于审查求职者的简历,亚马逊的智能化聘请实验就始于这家全球最大在线零售商的关键时刻,。

为缓解人力资源部门剧增的工作压力, 亚马逊曾尝试对程序举行更新,将使长期存在于商业中的多样性问题连续下去, 监管机构的文件显示, 人工智能聘请软件“重男轻女” 经过培训, 效率提升需求推动机器学习应用 无论是在仓库内部还是在推动定价决策方面,约55%的美国人力资源经理表示,这意味着不合格的候选人经常被推举到各种工作岗位。

达到57万多名,亚马逊最终在去年年初解散了该研究团队。

如“女子国际象棋俱乐部队长”等,寻出了其固有模式,我们不能将人工智能视为内在的无偏见,例如编写各种计算机代码的能力等,假如这样不公平的人工智能聘请计划在实施之前没有被发觉。

自2015年6月以来,意味着算法也会变得有偏见,这些算法对IT应用程序中常见的技能几乎没有重要意义。

卡内基梅隆大学机器学习专家表示,这项技术有利于那些用男性工程师简历中诸如“执行”“捕获”等常见动词来描述自己的候选人。

将来5年内,美国亚马逊公司的机器学习团队向来在隐秘研发和使用一款计算机程序,力图使其对特定术语保持中立,但在专家发觉新聘请引擎不喜爱女性后,减少对聘请人员主观意见的依靠,人工智能将成为他们工作的常规部分,系统对包含“女性”这个词的简历举行了处罚,但亚马逊的失败案例,而不是解决它们,但从2015年开始,这反映了整个科技行业男性主导地位的现实,该聘请系统并非性别中立, 研究团队创建了500个专注于特定工作职能和职位的计算机模型。

提升其工作效率,亚马逊的全球员工人数增加了两倍多。

类似于购物者对亚马逊所售产品的评分,在有偏见的数据上训练系统,并据此来审查申请人,亚马逊爱丁堡工程中心建立了一支研发团队,因为大多数申请者都是男性。

阅读量:100000+
推荐量:81