AI方面的数字创新和进步,催生了各种新型人才甄选和评测工具。这类工具大都声称能帮助公司提升选才能力,以前所未有的快速和低成本,为正确的工作找到正确的人才,筛去错误的人。
这些工具赋予了企业前所未有的力量,依靠数据做出人力资源相关决定。这类方法还可以促进反馈民主化,通过数据让数百万求职者了解自己的长处、成长需求,以及可能适合的职业和组织。
游戏式评估、抓取社交媒体信息的机器人、对求职者文章的语言学分析,以及可以运用算法分析说话内容、声调、情感状态、非语言行为以及性格的视频面试,这些领域已经出现了引人瞩目的快速发展(以及相应的风险投资)。
新型工具正在瓦解原有的招聘及人才评估空间,然而其自身的准确性尚存在许多问题,还带来了伦理、法律和隐私方面的疑问。相比之下,NEO-PI-R、The Wonderlic Test、Ravens Progressive Matrices和HoganPersonality Inventory等存在时间更长的心理测试,而且经过科学论证,可以帮助求职者匹配相关工作,打给求职者的评测分数与之后工作表现之间存在可靠的联系(证据发表于独立、可信的学术期刊)。最近美国参议院也开始担心,新技术(特别是人脸分析技术)是否会对公平就业产生负面影响。
本文关注新技术可能对求职者隐私造成的影响,亦关注新技术与《美国残疾人法案》和其他联邦及各州有关就业的法律之间的冲突,二者之间,如何保护求职者?企业意识到,不能或不该询问求职者的家庭状况和政治倾向,以及求职者怀孕与否、性取向、情绪状态、身心健康状况、酗酒与否、药物滥用状况和睡眠状况。然而,新技术能够间接识别这些因素,不必经过正式许可,甚至不必经过允许。
在对当前运用AI评估求职者的不确定性进行深入挖掘之前,先回顾一下过去会很有帮助。心理测试已经应用了100多年,因为美国陆军阿尔法部队用心理测试将入伍者分类、评估其担当各种职能的适合程度,心理测试的运用范围得以进一步拓展。心理测验通常分为三大类:认知能力(智力)测试、性格测试、心理健康测试。
1990年通过《美国残疾人法案》以来,公司被禁止询问求职者的身体残疾、心理健康或临床诊断状况,禁止参考这些因素进行评估,之前用此类因素进行筛选的公司受到了控告和谴责。本质上讲,残疾(包括身心两方面)被认定为“私人”信息,公司不能在职前阶段询问,一如公司不该向求职者提出有关私人生活的冒犯问题,不能让求职者个人背景因素影响聘用决定。
认知能力和智力测试,被证明是预测许多职位适合度的可靠评估因素。然而,如果特定受保护群体(如被性别、种族、年龄或出生地定义的群体)在这类测试中受到不利影响,就可能造成歧视。公司若要采用已被发现有此类不利影响(由于不同受保护团体的得分高低)的测试,必须证明该测试的确与工作有关,并能预测员工适合特定职位的程度。
性格测试令公司遭受歧视嫌疑的可能性较低,因为性格与受保护群体特质或残疾之间的相关性很小乃至没有。还有一点值得一提:性格与工作表现之间的关系,取决于具体情境(如工作类型)。
可惜关于眼下越来越多用于就职评估的新一代人才甄选工具的信息实在太少。许多工具的重点都是技术创新,并非来自科学推导或研究项目。因此,有时无法确定这类工具测试的究竟是什么、其预设是否合理有效,以及其预测求职者表现的基本原理。例如,言辞和嗓音(长期以来被视为与性格特质相关)的物理属性一直被视为与个人工作表现差异有关。如果某工具在言语规律上显示出倾向性,如青睐平和或“友好”的音调,这种因素对来自受法律保护群体的求职者不造成歧视,那么就不存在法律问题;可是这样的工具并未经过科学验证,因此可能存在潜在的歧视,让公司平白承担责任。另外,根据基本无法改变的先天嗓音条件筛选求职者,是否符合道德伦理,这方面尚无定论。
与之相似,社交媒体活动(如使用Facebook或Twitter)可以反映人的智力和性格,包括性格黑暗面。但使用社交媒体的用户通常是出于求职以外的其他目的,并未许可公司收集并分析这部分信息、得出有关他们的私人结论,那么,出于招聘目的发掘这部分信息,是否符合道德伦理?在招聘中应用新技术,一系列新的有关个人隐私的伦理和法律问题随之而来。我们认为,围绕这些问题应当进行公开讨论,如:
一、对于有关求职者个人属性的隐私信息,公司面临何种考验?
随着技术进步,大数据和AI将会越来越精确地测定个人隐私属性的“替代”属性。例如,现在Facebook的“点赞”记录可以用来推测性取向和种族,准确程度相当高。政治倾向和宗教信仰同样容易推断。公司是否会尝试利用这类工具筛选求职者,且因为聘用决定并非直接基于受保护群体的属性,所以并未触犯法律?如果只是推断求职者的个人属性,那么公司的确没有违反法律,但如果根据受保护群体的属性(如出生地、种族或母语)或公司无权过问的私人信息(如求职者可能罹患的身心疾病)做出不利于特定求职者的聘用决定,那就不一样了。公司依赖运用这些替代属性的评估工具,法庭将如何处理尚不得而知,但根据这类属性做出不利于求职者的决策,无论是怎样推理的,都与法律相悖。
脸部识别软件同样是这个问题。前不久的研究预测,面部识别AI可以迅速识别求职者的性取向和政治倾向,以及情绪等“内部状态”,准确程度相当高。这样一来,《美国残疾人法案》的应用又会如何改变?另外,《员工测谎保护法案》在一般情况下禁止公司使用测谎仪作为聘用前筛选工具,《基因信息不歧视法案》禁止公司在招聘时参考基因信息。可是,如果有关谎言和基因的信息能够被前文提及的AI工具准确检测出来,那又会怎样呢?
二、对于有关求职者生活方式和行为的隐私信息,公司面临何种考验?
现在公司可以获取一些隐私信息,比如求职者每周日去教堂时在网上的“签到”记录,对自己年迈亲人入住的老年痴呆症护理中心的评论,在民事法庭的离婚记录等等。在数字时代,许许多多信息都很容易找到。大数据无处不在,不断收集和整理我们的信息,供我们尚无法想象的工具分析,用作将来我们是否适合特定工作岗位的参考。而且大数据只会越来越“大”。专家表示,世界上90%的数据是过去两年里产生的。数据越来越多,数据滥用和随之而来的歧视(无论是有心还是无意)也势必会越来越多。
欧洲根据一般性资料保护规则(General Data Protection Regulation,简称GDPR)进行隐私保护,美国则依赖拼凑起来的方法,主要靠法律。对于社交媒体,美国于2012年立法,规定公司不可要求求职者提供个人网络账号的密码作为聘用条件。20多个州实施了这样的法律来限制企业。然而,对于在职场应用新技术的个人隐私问题,相应的规定和法律还很少。加利福尼亚通过了相关法案,可能会限制公司对求职者和员工个人信息的使用。而州级法院和联邦法院对于与新技术有关的员工个人隐私分析尚未有统一的法律标准。于是,至少在目前,大数据时代的员工个人隐私问题尚未得到解决。这种现状让公司处在有争议的立场,值得注意:尖端科技可能非常有用,但会向你提供以前属于个人隐私的信息。在招聘时使用这类信息是否合法?如果未经求职者允许,以这类信息为参考是否符合道德伦理?
三、对于有关残疾的求职者隐私信息,公司面临何种考验?
《美国残疾人法案》明确将心理疾病和身体残疾一并列入其范畴,将有过相关疾病或损伤记录、或被认为有此类疾病或损伤,在主要生命活动中受到实质限制的人定义为残疾人。十多年前,美国平等就业委员会(Equal Employment Opportunity Commission,简称EEOC)颁布指导意见,表明精神病学文献中的人格障碍扩展列表可以被视为心理障碍,而ADA修正案则让个人在ADA的定义下宣称自己有残疾更为容易。如此一来,有社交障碍、注意力障碍和与他人交流困难的人都受到ADA保护。
除了有关残疾的新问题,技术进步还带来了有关尊重多样性的新困境。这种系统造成的学习偏见,特别是与种族和性别有关的此类偏见,已经在现实中引起了高度关注。例如亚马逊用于评估简历的自动人才搜索程序,被发现评估方式带有性别偏见后立即被弃用。为了减少这类偏见,开发者正在调整用于培训AI的数据,力求平等地代表所有群体。AI学习的信息量越大,消除潜在偏见的效果就越好。
总之,新技术可能已经跨过了公众属性和个人隐私、“特征”和“状态”之间的界线,而且完全有理由相信,将来这个趋势会愈演愈烈。运用AI、大数据、社交媒体和机器学习,公司将更多地接触有关求职者个人生活、私人特征、隐私难题和心理状态的信息。本文提到的许多有关个人隐私的新问题并没有简单的答案,但我们相信这些问题值得公众探讨。
本·达特内(Ben Dattner) 托马斯·查莫罗-普雷穆兹(TomasChamorro-Premuzic)理查德·布克班德(RichardBuchband) 露辛达·舍特勒(LucindaSchettler)|文
本·达特内是高管教练、组织发展顾问,DattnerConsulting公司创始人,公司位于纽约。
托马斯·查莫罗-普雷穆兹是万宝盛华集团首席人才科学家,哥伦比亚大学和伦敦大学学院商业心理学教授,哈佛大学创业金融实验室成员。
理查德·布克班德是万宝盛华集团高级副总裁、法律总顾问兼秘书,公司和证券法专业出身。露辛达·舍特勒是万宝盛华集团高级律师,专攻美国劳动法。露辛达关注不断改变的就业领域中的法律问题,包括AI和新技术的应用。
本文首发于微信公众号:哈佛商业评论。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。