快捷搜索:  angelina  /usr/bin/id;  WEB-INF/web.xml  芭提雅  as  www.ymwears.cn  test  xxx

人工智能被用来吸引求职者并预测候选人的职位适合度



但这取决于任务吗?父母使用人工智能扫描准保姆的社交媒体,以及无数篇文章解释您的简历如何“击败机器人”,您可能想知道机器人是否会为您提供下一份工作。我们还没有到那里,但是招聘人员越来越多地使用AI进行第一轮裁员,并确定是否向您发布招聘信息。这些工具通常接受过有关以前或类似申请人的数据的培训,可以减少招聘人员为招募而花费的精力。去年,接受领英(LinkedIn)调查的招聘经理和招聘人员中有67%表示,人工智能可以节省他们的时间。

但是批评家认为,这样的系统会带来偏差,缺乏问责制和透明度,并且不能保证其准确性。以总部位于犹他州的公司HireVue为例,该公司出售一个求职面试视频平台,该平台可以使用人工智能来评估候选人,并声称可以预测他们成功获得职位的可能性。该公司表示,它会聘用工作人员心理学家来帮助开发定制的评估算法,以反映客户(通常是公司)希望聘请的特定角色(例如销售代表或计算机工程师)的理想特征。

 面部识别框和圆点覆盖着一个金发男人的照片。 Google Vision的人工智能系统的输出,于2019年11月22日在加利福尼亚州圣拉蒙的一名男子照片上进行面部识别。然后,该算法用于分析各个候选人如何在录制的视频采访中回答预选的问题,对他们的言语反应以及某些情况下的面部动作进行评分。 HireVue声称该工具(包括希尔顿和联合利华在内的大约100个客户使用了该工具)比进行相同结构化面试的人工访问者更能预测工作绩效。

但是上个月,一家非营利组织非营利组织电子隐私信息中心(EPIC)的律师向联邦贸易委员会提出了投诉,敦促该机构调查该公司的潜在偏见,不准确性和缺乏透明度。它还指控HireVue从事“欺骗性贸易行为”,因为该公司声称它不使用面部识别。 (EPIC认为HireVue的面部分析符合面部识别的资格。)

诉讼是在今年早些时候国会引入《算法责任法案》之后进行的,该法案将授权FTC制定法规以检查所谓的“自动决策系统”是否存在偏见。同时,据彭博社报道,据报道,负责就业歧视的联邦机构平等机会就业委员会(EEOC)目前正在调查至少两个涉及工作决定算法的歧视案件。

人工智能可以在整个招聘过程中弹出招聘人员可以在整个招聘过程中利用人工智能,从广告和吸引潜在申请人到预测候选人的工作表现。 “就像与全球数字广告的其余部分,AI帮助目标谁可以看到哪些职位描述[和]谁可以看到哪些营销工作,”阿龙雷基,在总经理解释好转,基于DC-非营利性数字技术攻关小组。

使用预测性AI的不仅是像HireVue这样的少数离群公司。 Vox自己的人力资源人员使用LinkedIn招聘者,这是一种使用人工智能对候选人进行排名的流行工具。同样,求职者平台ZipRecruiter使用AI根据候选人与平台共享的特征(例如其列出的技能,经验和位置)以及类似候选人与准候选人之间的先前互动,使用AI将候选人与附近的潜在合适工作相匹配。雇主。例如,由于去年我在ZipRecruiter上申请了一些旧金山的补习演出,因此我继续收到来自该平台的电子邮件,宣传该地区的类似工作。

加入开源报告网络Vox的为期一年的报告项目对“开源”进行了重新编码,以揭开数据,个人隐私,算法和人工智能世界的神秘面纱。我们需要您的帮助。填写此表格以有助于我们的报告。总体而言,该公司表示其AI已针对超过15亿名雇主与候选人的互动进行了培训像Arya这样的平台(据称已被Home Depot和Dyson所使用)进一步发展,它使用机器学习根据公司内部数据库,公共工作委员会,Facebook和LinkedIn等社交平台上可能提供的数据查找候选人。开放网络上可用的其他个人资料,例如专业会员网站上的个人资料。

艾莉亚(Arya)声称,它甚至可以根据员工收集的有关候选人的数据,例如员工的晋升,以前的职位和行业之间的往来情况以及员工的预期适合程度,来预测员工是否可能离开原来的工作并接受新工作。新职位,以及有关角色和行业的数据。 AI的另一种用途是筛选应聘材料,例如简历和评估,以推荐应征者应首先联系哪些候选人。理想的筛选和匹配服务之一的首席执行官兼联合创始人Somen Mondal表示,这些系统不仅仅可以自动搜索简历中的相关关键字。

例如,理想可以学习理解和比较候选人简历中的经验,然后根据申请人与空缺职位的匹配程度对其进行排名。 “这几乎就像一个招聘者在Google上搜索(在应用程序中列出的)一家公司并了解它一样。”Mondal解释说,他说他的平台每月用于筛选500万名候选人。

但是,AI不仅在幕后运作。如果您曾经申请过工作,然后进行了文字对话,那么您很有可能正在与招聘机器人聊天。使用Mya等公司创建的自然语言理解的聊天机器人可以帮助实现与以前的申请者就公司的新职位建立联系的自动化过程,或者确定申请者是否满足职位的基本要求(例如职位空缺),从而消除了需求用于人类电话筛查采访。例如,Mya可以通过文本和电子邮件,以及通过Facebook和WhatsApp等消息传递应用程序进行联系。

人工智能在工作选择中的另一个新兴用途是人才和人格评估。支持该应用程序的一家公司是Pymetrics,该公司出售供候选人玩的神经科学计算机游戏(其中一种游戏涉及每当屏幕上出现红色圆圈(而不是绿色圆圈)时,都按下空格键)。这些游戏旨在预测候选人的“认知和人格特质”。 Pymetrics在其网站上说,该系统研究了从游戏中收集的“数以百万计的数据点”,以根据Pymetrics的数据将申请人与被认为合适的工作相匹配。预测算法。

支持者说,人工智能系统速度更快,可以考虑招聘人员​​​​无法快速计算的信息这些工具可帮助人力资源部门在大量应聘者中更快地迁移,并最终降低招聘成本。支持者说,与劳累过度的人类招聘人员浏览数百份简历和求职信相比,他们可能更公平,更彻底。

“公司只是无法通过应用程序。如果这样做的话,他们平均要花3秒钟,” Mondal说。 “效率存在一个整体问题。”他认为,使用AI系统可以确保至少筛选每个简历。毕竟,一份职位发布可能会吸引成千上万的申请,其中很大一部分来自完全没有资格担任职位的人员。

此类工具可以自动识别以前成功录用的申请材料中的特征,并在新申请人提交的材料中寻找该特征的迹象。孟德尔说,诸如Ideal之类的系统可以在每个应用程序中考虑16至25个因素(或元素),并指出,与人类不同,它可以计算出以“毫秒”为单位的通勤距离之类的东西。

“您不仅可以开始与面试的人员进行微调,也可以不仅与您雇用的人员进行微调,而且最终在这个职位上做得很好。因此,这是一个完整的循环。” Mondal解释说。 “作为一个人,要查看整个申请者生命周期中的所有数据非常困难。而且[使用AI]只需几秒钟即可完成。“

这些系统的运作规模通常大于招募人员的规模。例如,HireVue声称在其视频平台中使用的人工智能评估了“ 成千上万的因素”。即使公司使用相同的基于AI的招聘工具,他们也可能会使用针对自己的招聘偏好进行优化的系统。另外,如果不断对新数据进行训练,算法可能会发生变化。

另一项服务Humanistic声称,它可以通过挖掘和研究他们对语言的使用,从而根据求职者的简历,LinkedIn个人资料以及申请人可能自愿提交的其他基于文本的数据来了解候选人的心理(该产品受到启发由心理语言学领域)。这样做的目的是消除对其他人格评估的需求。 “我们尝试回收已经存在的信息,”该公司的联合创始人Amarpreet Kalkat解释说。他说,这项服务已被100多家公司使用。

这些招聘工具的支持者还声称,人工智能可用于避免人为偏见,例如对某所大学毕业生的无意识偏爱,对妇女或少数民族的偏见。 (但是AI常常会加剧偏见;稍后会更多。)他们认为AI可以帮助剔除(或抽象化)与候选人身份有关的信息,例如其姓名,年龄,性别或学校,并更公平地考虑申请人。

关于AI可能压制(或至少比偏见的人类做得更好)的想法在今年早些时候激发了加利福尼亚州的立法者,提出了一项法案,敦促政策制定者探索使用新技术,包括“人工智能和基于算法的技术”。 “减少招聘中的偏见和歧视。”

AI工具反映了谁来构建和训练它们这些AI系统仅与他们接受过训练的数据以及构建它们的人员一样好。如果对简历筛选机器学习工具进行过历史数据培训,例如从公司先前聘用的候选人那里收集的简历,则该系统将继承做出这些选择的招聘经理的有意识和无意识的偏好。这种方法可以帮助找到出色的高素质候选人。但是Rieke警告说,该方法还可以采用“尽管如此,但是在数据集中仍然很明显的愚蠢模式”。

根据Quartz的报道,一种这样的简历筛选工具被确定为Jared,在高中时打过曲棍球是工作绩效的最佳预测指标。如果您以前是名叫Jared的高中曲棍球运动员,那么该特定工具听起来可能还不错。但是系统还可以学会种族主义,性别歧视,年龄歧视,并以其他邪恶的方式产生偏见。例如,路透社去年报道说,亚马逊制定了一种招聘算法, 在某些职位上无意中倾向于男性申请人而不是女性申请人。该系统接受了提交给该公司的10份简历的培训,据路透社报道,这些简历大多来自男性。

2017年4月4日,英特尔人工智能(AI)日的一位访客走过印度班加罗尔的招牌。 (亚马逊发言人告诉Recode,该系统从未使用过,被废弃的原因有很多,其中包括算法是原始的,并且这些模型随机返回了不合格的候选人。)孟德尔说,没有定期的,广泛的审核,就无法使用这些系统。这是因为,即使您明确指示机器学习工具不要歧视女性,它也可能会无意间学会歧视与女性相关的其他代理,例如从女子大学毕业。

他说:“您必须有一种方法来确保您不会选择以特定方式分组的人员,而只是在雇用这些类型的人员。” 确保这些系统不会引入不公正的偏见,意味着要经常检查新员工的人数是否不代表一个人口群体。但是,人们怀疑将算法和AI进行“去偏置”是一种完整的解决方案。 Upturn在有关股权和雇用算法的报告中指出:“ [消除偏见]最佳做法尚未具体化[和] [许多]任何技术都将重点放在个人受保护特征(如性别或种族)上,并且很少解决交叉关注的问题,多种受保护的性状会产生不同的复合效应。”

而且,如果在Facebook之类的在线平台上发布广告,由于该平台算法产生的偏见,您甚至可能看不到任何职位。还有人担心,像HireVue这样的系统可能会固有地构建为歧视某些残障人士。批评家们也对这些工具是否能如其说表示怀疑,尤其是当他们对候选人的“预测”心理,情感和职位适合性提出广泛要求时。斯坦福大学组织行为学教授阿迪娜·斯特林(Adina Sterling)也指出,如果设计不周密,算法可能会将其偏好推向单一类型的候选人。这样的系统可能会错过一个非常规的申请者,他仍然会出类拔萃,就像演员申请销售工作一样。

“算法有利于规模经济。他们不利于细微差别。”她解释说,并补充说,她不认为公司在研究他们使用的招聘AI工具并检查这些系统实际针对什么进行优化时不够警惕。谁来监管这些工具?就业律师马克·吉鲁亚德(Mark Girouard)说,人工智能和算法选择系统属于《雇员甄选程序统一准则》,该准则由联邦机构于1978年建立,指导公司的甄选标准和雇佣评估。

这些AI工具中有许多都说 它们遵循五分之四的规则,这是在这些员工选择准则下建立的统计“经验法则”基准。该规则用于比较申请人人口群体的选择率,并调查选择标准是否会对受保护的少数群体产生不利影响。但是专家指出,该规则只是一项测试,Rieke强调通过测试并不意味着这些AI工具会按照他们的要求行事。他说,一个随机选择候选人的系统可以通过测试。