登录×
电子邮件/用户名
密码
记住我
请输入邮箱和密码进行绑定操作:
请输入手机号码,通过短信验证(目前仅支持中国大陆地区的手机号):
请您阅读我们的用户注册协议隐私权保护政策,点击下方按钮即视为您接受。
FT商学院

AI胡扯可能使求职者受到歧视

招聘人员正在使用聊天机器人来研究候选人——但AI“幻觉”意味着这种便利伴随风险。马斯克的Grok无端说我在休产假就是例证。

最近在找工作的时候,我问了几款人工智能(AI)聊天机器人,请它们帮我总结一下我的职业生涯。它们提供的结果基本准确,但有一个明显错误。

根据埃隆•马斯克(Elon Musk)旗下“追求极致真相”的聊天机器人Grok的说法,奥利维亚•加根(Olivia Gagan,就是我)“最近宣布她在休产假,此前她在2025年生下第一个孩子”。

这对我来说是新闻。我不在休产假,也不是妈妈。根本没有宝宝。

面对一个关于我自己的“幻觉”令我感到不安。但这类差错引出一个更大的问题:随着AI在招聘中用得越来越多,错误信息影响招聘决策的风险也在不断上升。

“这肯定令人担忧,”咨询公司Gartner的人力资源研究总监杰米•科恩(Jamie Kohn)表示。“AI可能会对候选人做出错误的评判,更糟糕的是,它甚至可能泄露受保护的信息。公司应该警告管理人员不要使用AI来了解候选人,但你很难控制人们的行为。”

的确如此。根据波士顿咨询集团(BCG)今年的一份报告,在尝试使用生成式AI (generative AI)的公司中,70%将其应用于人力资源领域,其中最大用途就是招聘人才。

这其中有很大一部分通过专业的招聘软件来完成,这些软件利用生成式AI扫描在线个人资料,然后推荐与职位匹配的潜在人选。

招聘人员还报告称,他们会使用现成的聊天机器人来研究候选人——尽管这种做法并非总是得到雇主的批准。“我们在与新人见面时会使用它,看看它对他们有什么评价,”英国某家科研招聘公司的首席执行官表示,“AI往往会告诉你一些个人信息,让我们能够更快建立融洽关系。”

猎头公司海德思哲((Heidrick & Struggles)的合伙人乌罗什•兹韦尔(Uroš Zver)表示,这种使用方式虽然不正规,但可能相当普遍。“中层管理人员和初级职位的招聘市场高度碎片化和商品化,因此……在利用各种可用工具方面不那么讲究,”他表示。“这可能成为一个非常严重的问题。”

包容性招聘初创公司JobFair的首席执行官兼技术研究员爱丽丝•阿什克罗夫特(Alice Ashcroft)表示,AI在基于在线数据进行推断时,很可能会“加剧现有的文化偏见”。例如,Grok在推断我刚刚生完孩子时,“很可能考虑到了我的年龄和性别”。

在英国,因求职者怀孕或休产假而拒绝雇用或考虑其求职申请是违法的。但歧视现象确实存在,而且如果雇主决定终止求职申请流程,很难证明存在歧视。如果AI很可能错误地给求职者贴上受保护特征的标签,它可能误导雇主违反平等法。

Farrer & Co律师事务所的高级律师艾米•雷恩(Amy Wren)表示,即使没有AI,这个问题也已经存在“好几年了”。“在线研究候选人存在危险。你很可能在无意中发现某人的个人特征——可能属实,也可能不属实——然后根据相关信息采取行动。这构成歧视风险。”

在英国,即使求职者认为招聘决定可能受到AI提供的虚假信息影响,目前也没有专门的法规来保护他们。雷恩表示,监管机构“正将责任推给雇主,要求他们采取负责任的做法”。企业必须“在自行承担风险的情况下”使用AI,进行影响评估,遵循良好的治理实践,并在使用AI一事上对候选人透明。

AI仍然是一件有用的工具。“生成式AI当然正在物色候选人的流程中被用作工具,”招聘公司Korn Ferry的AI战略主管布莱恩•阿克曼(Bryan Ackermann)表示。他认为,只要谨慎使用,节省时间和接触更大的人才库都是“非常好的使用理由”。“这既是风险也是机遇。”

求职者能做些什么来缓解这个问题?在接到置评请求后,Grok的新闻团队只回应了一句:“传统媒体撒谎。”AI本身更有帮助。它建议:如果它给出的信息有误,我应该告知它。撰写本文时,它不再报告我有一个AI宝宝。

除了我们的线下形象和线上资料之外,求职者现在还要管理第三个身份:AI赋予我们的身份。

译者/和风

版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。

读者评论

用户名:
FT中文网欢迎读者发表评论,部分评论会被选进《读者有话说》栏目。我们保留编辑与出版的权利。
用户名
密码
设置字号×
最小
较小
默认
较大
最大
分享×