-
Kevin Wheeler
探讨:招聘工具有多智能? 基于人工智能的工具有哪些限制?
我(作者:Kevin Wheeler)和许多其他人一直在倡导使用使用人工智能的自动招聘工具。我一直在倡导使用这些工具,原因有二:它们比人类的偏见更少,而且它们可以使招聘过程更加高效和有吸引力。
现有的工具一般分为两类:筛选和评估候选人,以及将常规任务自动化的工具。所有这些工具都是基于专门的人工智能,它们可以解决定义明确的问题或在特定环境下完成常规任务。然而,它们不能做其狭窄任务之外的任何事情。
但它们真的是 "智能 "吗?那是什么意思?显然,它们不是我们认为的智能。只要你问Siri或Alexa一个超出它们狭隘的专业领域的问题,它们的回答要么是无稽之谈,要么是把我们引向人工,要么是提供一些其他行动。例如,我刚刚问Alexa我是否需要牛奶。她说:"你在买牛奶吗?"这似乎有点智能,但 "她 "可能是为了让京东的京东超市可能进行牛奶销售而编程的。
人工智能学者凯特-克劳福德(Kate Crawford)最近的一本书《人工智能地图集》(Atlas of AI)认为,"......我们已经买了这种[人工智能]智能的想法,而事实上,我们只是在寻找规模化的统计分析形式,这些分析的问题和它所给的数据一样多。"
所有供应商为我们提供的增强招聘活动的各种工具都依赖于大量的大数据。这些数据为用于驱动其决策的算法提供了依据。因此,获取大量的数据是至关重要的。而这些数据的质量和种类对其准确性和客观性至关重要。不幸的是,我们已经目睹了许多案例,所使用的数据过于狭窄,以前有偏见,或者样本不够大,无法提供无偏见的结果。亚马逊和微软都曾落入这个陷阱。
使用人工智能的自动化工具的崛起是计算能力爆炸的结果。大量的存储、快速的处理器和可负担得起的访问,使我们有能力压缩大量的数据。利用这些数据,我们可以找到以前不可能看到的模式。例如,我们可以查看我们雇用的每个人的业绩数据、教育、经验等等,并确定导致成功或失败的特质。此外,我们还可以分析我们在面试中提出的问题的答案,并将其与绩效和留任相关联。这使得评估工具更加强大,并使我们能够根据人们的过去对其进行预测。这是否符合道德,是否公平,甚至在某些情况下是否合法,还有待研究。这项技术已经超出了我们理解它和制定公平和道德使用框架的能力。
尽管我们对人工智能工具的看似强大的力量感到震惊,但没有一项技术或思维是新的。大多数人工智能工具已经存在,至少从20世纪60年代就开始了。人工智能没有变得像今天这样重要的原因是缺乏计算机能力。要分析大量的数据,甚至要获得这些数据,需要的计算能力水平直到几年前还不存在。我们目前的许多工具都是在1960年代产生的。一个著名的例子是第一个名为Eliza的聊天机器人。在20世纪60年代,麻省理工学院的Joseph Weizenbaum创造了Eliza来充当心理治疗师。在用户看来,她是一个真正的医生,她会问问题并提供有用的建议,尽管她遵循一个非常简单的脚本。她的局限性在于处理器速度、有足够内存的电脑来处理她的算法、成本和用户访问。
即使在今天,所有的聊天机器人都遵循脚本。必须有人写出将被问到的问题并预测答案。聊天机器人本身其实不过是一棵决策树而已。当候选人回答问题时,算法会使用脚本做出适当的反应。有了今天强大的计算机,再加上自然语言处理,它们可以模仿人类,以现实和准确的方式作出反应,并利用自然语言处理在一定程度上 "理解 "一个答案,即使是出乎意料。
我是聊天机器人的倡导者,因为它们能让候选人随时获得答案和信息。它们可以节省时间,改善候选人的体验,并减轻招聘人员的工作量。如果他们的程序设计得当,他们可以筛选候选人,并淘汰那些不符合他们所寻求的工作要求的人。但是,无论它们看起来多么聪明,重要的是要注意它们不是人类意义上的智能。他们不能感知交流中的细微差别或理解情感。他们不能回答任何超出其脚本的问题。
自动评估测试使用来自数以千计的其他应试者的数据来为算法打分,例如,某人能写代码或解决问题的程度。算法可以访问候选人数据来预测他们的个性或测量他们的智商。它们可以在互联网上搜索,找到符合预定特征或具有特定技能或教育的人。所有这些能力都扩大了招聘人员的影响和范围,使他们的工作更加有效。但是,如果认为这些工具具有人类招聘人员那样的智能,那就错了。
新的人工智能技术,如神经网络和更多的计算机能力,将提高这些工具提供良好建议和作出更准确预测的能力。但是,每个工具都是基于必须存在的数据。寻找和访问这些数据是一个日益严重的问题。谁拥有这些数据?谁可以访问它?它是否被以无偏见的方式使用?这些都是我们许多人的合理担忧。
人类区别于计算机的许多事情之一是我们能够使用情感、无意识的行为,甚至是非理性的行动来做决定。当然,伴随着这些而来的是偏见和许多其他不受欢迎的特征。但与此同时,我们也有独特的能力,可以为某人抓住机会,为某人提供机会,尽管数据显示不应该这样做,但我们可以被自己的情感所左右。计算机不能也很可能永远无法做到这一点。
这些工具都不能取代人类的判断或决策。相反,它们通过比我们更好地分析数据和不偏离规则来增强我们的决策。它们为我们提供概率并指出我们可能从未见过的东西。
但令人怀疑的是,它们是否会像人类一样跳到一个结论,在没有数据的情况下做出决定,觉得某些事情是正确的,大笑、哭泣、同情,或者在一些特立独行的候选人身上冒险,因为他们可能会发明下一个杀手级产品。
How Smart Are Recruiting Tools?
What are the limits on A.I.-based tools
Kevin Wheeler
2021年05月31日
扫一扫 加微信
hrtechchina