人工智能招聘的伦理与法律挑战

AI招聘的伦理与法律挑战

人工智能与招聘软件:伦理和法律影响

1 引言

近年来,人工智能 (人工智能) 被越来越多地用于支持招聘和人力资源 (人力资源) 部门。人工智能已经改变了社会的多个领域,但在人力资源领域的影响却相对有限,迄今为止人工智能在其中仅扮演了辅助角色。几十年来,作者们一直在强化战略与全球人力资源管理的概念。[1] 更最近,卡普尔和谢里夫[2]指出,商业环境正在演变为一个拥有多样化员工队伍的更复杂系统,必须借助商业智能和人工智能来改进人力资源实践。传统上没有偏见的人工智能在简历和关键词扫描以及候选人技能提取方面显示出极大的价值。目前人力资源领域出现了视频面试分析的新趋势。研究人员如斯特罗梅尔和皮亚扎指出,目前尚缺乏关于人工智能在此领域潜力的全面研究[3]。

《今日人事》的一项调查显示,已有38%的企业在其工作场所中使用人工智能,预计到 2018[4]这一比例将达到 62%。如今,人工智能将在工作场所取代人类的观点已广为流传。一份工作由许多任务组成。有关自动化和机器人导致劳动力替代可行性的研究提供了相关证据-tion androbots[5]。在人力资源领域,越来越多的任务现已实现完全自动化,并由算法驱动,尽管最终决定谁进入现场面试或被聘用仍需依赖人工招聘人员。此问题大大减少了候选人的时间以及招聘流程的fi时间。

全球化社会的需求以及跨国公司中人力资源经理面临的过长的招聘时间,已经改变了传统的面试方式。目前该领域正倾向于使用算法,根据不同特征对候选人进行排名,且多项商业产品正在人力资源部门得到广泛运用。此外,许多大型跨国公司已经认识到多种视频面试产品和公司的价值:

  • HireVue: 1 Start-up 于2004年在美国犹他州成立(美国)。其领先的语音和面部识别软件将候选人的词汇选择、语调和面部动作与公司表现最佳者-的肢体语言和词汇进行比较和评分。通过使用模型,HireVue分析数千个特征及其与公司表现最佳者之间的关联。最后,它会为候选人生成一个排名列表和一个洞察评分(0‐100)。最终的招聘决策由人类招聘人员做出。该系统由一项名为HireVue IrisTM的专利深度学习分析引擎提供支持。

  • Montage ,2 SparkHire ,3 Wepow :4 移动和视频面试软件或SAAS (Software as aService)。根据不同地理区域,对视频-面试产品有不同偏好。例如, SparkHire的客户群主要位于美国(USA),而 Wepow在欧洲以及制药业等某些行业拥有更大的市场。5

  • Blizz :6 基于云的视频面试工具,提供安全聊天及双向高清音视频功能。该工具于2013年推出。

  • Human :7 Human是一家2016年成立于伦敦的初创公司,通过分析基于视频的求职申请中的潜意识情绪,以预测人类行为。

  • Affectiva :8 全球情绪数据库,包含超过五百万张人脸,提供情绪测量技术,作为人力资源领域图像处理应用的基础。在这些软件产品中,关键在于定义与招聘流程中所评估的各项能力相关的特质和面部手势。Affectiva测量的其他特征被列为类别或等级,例如年龄 (18–24岁、25–34岁、35–44岁、45–54岁、55–64岁、65+、_18以下、未知)。Affectiva可追踪愤怒、轻蔑、厌恶、投入度、喜悦、悲伤、惊讶和效价(衡量被记录者体验的积极或消极程度)等情绪。例如,投入度包含以下一系列面部手势:眉毛抬起、皱眉、鼻子皱起、嘴角下拉、下巴抬起、嘴唇收拢、嘴唇紧压、张嘴、吸唇和微笑。

本文研究了人工智能和算法在人力资源领域的新趋势及其影响。我们分析了视频面试分析和候选人排名的影响、少数群体在多元化候选人库中的包容性,以及在不同法律法规下招聘算法的有效性。

在仔细分析了面向提取员工特质和特征的系统与技术后,本文讨论了一些可能具有争议性的特征,包括外貌、声音、语调、关键词和种族等显性特征,以及乐观程度、以客户为导向的性格、性身份和与前任员工的相似性等隐性特质。这些技术进步为候选人和信任特定招聘产品以提高招聘流程效率的公司带来了广泛的伦理问题——准确性与隐私问题。面向人力资源研究的领域专用人工智能涵盖了认知科学、心理学和人工视觉等多个学科和背景。

我们工作的主要目的是分析招聘问题,并提出一种自动化多智能体软件架构,以支持人力资源审计。我们尽可能设计通用的架构,以便将招聘和审计流程中的不同任务分配给不同的代理,同时允许监控需要用户批准和法律审查的各种场景。

本文的其余部分组织如下。我们首先介绍 (第2节)一些在使用人工智能技术进行图像和语音识别中经常测量的争议性特征。在第3节中,我们介绍用于检测上述争议性特征的机器学习 (ML)技术的基本信息。第4节重点讨论在招聘中常用的人工智能图像分析的优点和缺点。在第5节中,我们讨论与少数群体的包容性、性别平等以及申请人获得公平和知情的选拔过程权利相关的法律和伦理问题。然后,在第6节中,我们提出一种支持审计招聘流程的软件架构。第7节包含对本文所进行分析的讨论以及基于人工智能的招聘算法的一些未来方向-。最后,我们在第8节中总结全文。

2 图像和语音处理的争议性特征

最近,一些关于先进的人工智能、图像处理和人脸识别技术的批判性分析引起了关注。一项近期的斯坦福研究 [6]声称,通过人脸识别技术可以推测性身份及其特质。该研究在发表前必须经过美国心理学家学院的审查和批准,鉴于9 它引发的潜在危险和伦理问题。这让我们联想到其中一些研究可能类似于颅相学,属于伪科学范畴——颅相学是一种过时的理论,认为头骨、头部形态与行为、性格及犯罪倾向相关。这种观点超出了形态学范畴,并将女性化妆较少或穿着较为保守作为判断其为同性恋的依据。

这一观点引出了“软生物特征”的概念,即对身体几何、标记和纹身进行分析,与主要生物特征不同,这些特征可以在无需配合的情况下远距离获取 [7]。多位研究人员 [8–11] 探讨了在人脸识别中推断和建模种族的可能性达到何种程度。正如司尧等人 [8] 在关于种族分析的综述中所提出的:“如何从人脸中概念化地建模并定量推断隐式的、非声明性的种族类别?” 他们提到了从人脸中隐式地进行种族检测、分类以及学习种族信息,超越了经验性验证的层面。种族类别不应被视为理所当然,因此他们建议通过定性分析(如特征等)而非定量方法,建立恰当的种族分类模型。其他一些重要研究则集中于特定地理群体 [9–11]。

2.1 外貌吸引力

面部对称性在判断外貌吸引力和美方面尤为重要 [12]。例如,一个美丽的人瞳孔间距与眼睛大小相协调,面部宽高比良好,嘴宽与面部其他部分成比例。

这些观察引发了关于衡量求职者外貌美是否合理的不同问题——尤其是在那些不附照片简历更受青睐的国家。科学界对评估面部美丽的研究很常见fi,并且一些应用程序在互联网用户中变得流行起来。[12,13],机器学习是此类自动评估的关键,并由训练数据和测试数据的子集支持。根据对面部吸引力的自动评估,这些训练数据从像Hotornot这样的网站收集了数据,用户可以在这些网站上对女性进行评分,并为数据集选择得票高于平均水平的照片。

2.2 年龄

无论年龄如何,都应对企业政策进行一定审查,以避免偏向特定年龄组的员工。衰老在每个人身上遵循相同的模式。其中一些变化,如皱纹的出现,只要个人接受某些美容程序(例如肉毒杆菌素或填充剂)就可以延迟。然而,像牙弓变薄和减少这样的变化则难以避免。研究面部的形态学变化并确定大致年龄是容易的。在许多国家,询问候选人年龄是被禁止的,以促进所有公民的包容性。

接下来,我们包含对图像处理中测量的面部基本特征、线条、皱纹和形态学变化的分析,以检测年龄,如林(表1)及其同事[14,15]以及关于使用卷积-神经网络进行年龄和性别研究[16]中所示。最近,Yoti[17]发布了一份白皮书,涉及人脸识别技术与人工智能在年龄追踪中的应用。该技术已建议用于英国的零售和超市领域,并可能应用于招聘。该系统依赖于年龄指标,并根据 10-年的误差范围筛选申请人。例如,在识别未成年顾客时,将28岁以上的人员排除,并要求出示身份证以购买酒精饮料。

2.3 种族

在视频面试中,最具争议性的可分析特征之一是种族。这是不公平的,而且必须指出的是,大多数算法和分类器都是使用白人的图像进行训练的,在黑人身上表现不佳。正如布奥拉姆温尼和格布鲁所指出的那样,算法中包含种族歧视问题存在巨大争议。已有研究表明,有些皂液机更容易检测到白人而非其他人种[19]。关于种族分析的最新研究和理论,如司尧等人[8],所提及的 非白人个体,尤其是女性,在夜间或光线不良条件下的面部识别存在复杂性。本调查认为,与其他属性相比,开发种族检测的系统性方法更加困难。由于偏见的存在,收集不同种族的样本图像并不容易。对种族的分析更多是定性的而非定量的,且种族的定义本身具有模糊性。究竟存在多少种族类别?而对于其他人脸分析任务,类别通常是预先明确的:如人脸检测中的一对一匹配、两种性别以及六种普遍情绪类型的封闭列表[8]。

Muthukumar 等人[20]的研究凸显了深色皮肤女性子群体中准确性不足的问题。其他作者[21,22]也指出了在无约束捕捉条件下,特别是模糊图像中进行人脸检测与种族识别所面临的困难。我们简要回顾一下,这些系统最初采用的是机器学习技术。这些算法最初是为白人设计的,或主要使用白人个体的图像进行训练,包括训练和测试数据集。我们需要开展进一步研究,以提高执法算法在种族方面的准确性,尤其是在美国等国家,执法机构对非裔美国人和非白人社区进行过度监控的情况下。以往的研究已指出,警察使用的人脸识别系统[23]以及监控摄像头[24]存在不准确的问题。

2.4 图像和声音中的性别与性取向分析

作为图像和声音中性取向识别技术进步的一个例证,这一点很重要提及一些最近在意大利和美国进行的实验。这两项研究都需要伦理监督。Kosinski 和 Wangs’的研究 [6]展示了基于同性恋形态学研究的理论。该研究认为,同性恋与子宫内激素特定浓度的暴露存在关联,并且形态特征可以判断性取向 (例如,更男性化或女性化的下颌线和前额)。这项研究被与用户在交友应用中披露的信息进行了对比。由于该研究具有不透明且过于侵入性的性质,在发表前需要获得美国心理学家学院的建议和许可。

声音-为基础的分类研究 [25]提醒我们,每种语言都有其特殊性,男性发出的声音听起来更女性化,或相反情况,可能是由于解剖学原因,或在童年时期更多接触女性化声音所致。听者在意大利语或罗曼语族语言中对性取向的判断更为明确,但在德语和意大利语中,分类方式相似,一些同性恋说话者 consistently 被误判为异性恋,反之亦然。

2.5 关键词在言语中词语肯定/否定含义的使用

人工智能系统已经能够识别出可以表明乐观且有说服力的销售人员的高频词汇。由于每种语言都有其特定的内涵,使用或多或少带有乐观色彩的短语结构、谚语和流行表达,可能会导致对候选人想要表达内容的误解,或错误地推广到英语语言中。

根据最近的资料[26],谷歌翻译直到2018年底仍存在性别偏见,目前正致力于消除这一问题。最近的更新包括对中性含义提供多种翻译。11 例如,迄今为止,它将 “她”与传统上被视为女性的名词和形容词相关联 (例如“护士”、“教师”),将 “他”与“勤奋的”相关联,中文代词用于指代 “他们”时,自然被翻译成英语中的阳性形式 “他 ”等。根据利维 [27],这些技术设计过程中男性占多数是问题的根源。这种以男性为主导的环境可能导致阳性和阴性比例失衡。

表1:皱纹随年龄进展

事件类型 描述
10岁男性 None
10岁女性 None
20岁男性 眼睛下方
20岁女性 None
30岁男性 眼睛下方,眼角处
30岁女性 眼睛下方
40岁男性 眼睛下方,眼角处,在脸颊上
40岁女性 眼睛下方,眼角处
50岁男性 眼睛下方,眼角处,在脸颊上,在眉毛上
50岁女性 眼睛下方,眼角处,在脸颊上 ,在眉毛上

该表格摘自 Hayashi 等人 (2002)[14]。

词语。翻译的性别视角 [28]。人们倾向于根据自身的性别来翻译中性词汇。这在涉及中文语言的自动翻译中非常常见。

3 种用于识别争议性特征的人工智能技术

接下来,我们将深入探讨近年来在人力资源领域,特别是视频面试系统中用于面部/模式识别的现有文献及主要机器学习技术。具体而言,我们将分析前几节中提到的特质和特征、种族、性别等。

对视频图像监控和流媒体分析的初步关注推动了与视频面试系统相关的面部识别技术的当前先进水平。然而,现有系统重视候选人的具体回答和细微细节,甚至考虑种族或年龄等争议性特征。随着面部特征分析技术的不断增多以及视频面试系统收集到更多与图像或音频分析相关的数据点,调查与综述变得尤为重要。在开始之前,必须认识到相关研究存在异质性和重复性,这引发了关于哪种机器学习技术最有效的质疑。

首先,值得一提的是维奥拉和琼斯[29]开展的研究。实际上,他们并未提出一种机器学习技术,而是一种在图像中快速检测人脸的方法,即一种图像-处理技术。该文章为后续研究奠定了基础,这些研究开始利用 AdaBoost分类器实现这一目标。下一步是识别特征和轮廓。马苏德等人[30]提出了一种基于索贝尔边缘检测方法的标准化前额区域计算方法[31]。随后一项关于人类种族预测的研究[30]指出,某些种族(例如黑人)具有较高的前额比例。

需要牢记的是,我们讨论的是一个实验性领域。在前面的章节中,我们总结了图像处理中的主要争议性特征。尽管这方面的大量文献已经存在,但我们不应一概而论地认为某种机器学习方法适用于所有特征。根据以往关于人类性别识别的研究,维奥拉–琼斯被认为是重要的里程碑。维奥拉和琼斯 [29]提出了用于快速人脸检测的矩形或类哈尔-特征,并被其他研究者所采用用于石和托马西[32]中视频的实时性别和种族分类的作者上述提到的一项针对性取向的研究强调了前额区域比例的重要性,而前述的研究则将此分析应用于种族检测。可以推测,所使用的机器学习技术-可能是可互换的。

关于外貌吸引力,根据相关作者 [13],,用于训练分类器的一些主要机器学习算法包括K近邻法 (k‐NN)、人工神经网络 (ANN)以及AdaBoost。k‐NN依赖于根据局部邻域进行类别选择,且比ANN提供更好的结果,而在ANN中很难理解其解释。AdaBoost背后的原理是结合多个弱分类器以构成一个强分类器,并能提供积极的结果。

在种族检测方面,与外貌吸引力类似,k-NN、 ANN和AdaBoost是一些用于种族检测的机器学习算法。司尧等人 [8]在其关于种族识别的主要论文中承认,在检测混血种族方面存在困难。

情感识别在人机交互、互动视频游戏或用于健康的人工视觉领域一直至关重要。时至今日,视频面试分析的一个重要组成部分是特征提取与情感识别工具。Abdulsalam 等人 [33]指出,面部表情分析中的一个重要里程碑是保罗·艾克曼 [34]的工作,他描述了一组六种基本情绪 (愤怒、恐惧、厌恶、快乐、悲伤和惊讶),这些情绪在表达和理解上具有普遍性。根据该比较研究 [35], ,有必要区分用于特征提取的技术和用于分类的技术。用于特征提取的主要机器学习技术包括Gabor滤波器、方向梯度直方图和局部二值模式;用于分类的技术则包括支持向量机、随机森林和最近邻算法(k‐NN)。

4 人力资源中的图像分析 的优缺点

我们开始描述可通过图像和视频分析测量的主要及争议性特征。基于人工智能的视频面试系统可被编程用于收集以下类型的特征——照明、眼神交流、语音语调、节奏、使用的关键词(实质性对话)等,并据此进行推断诸如年龄等特征,或状态,例如 情绪 和 行为(古怪、动作或非常冷静且不太爱说话)。如今,人们非常重视情绪。他们可以检测雇主在团队中所期望的特定个性特征,以客户为中心或销售人员的迹象。最近,公司和研究人员都在致力于情绪与情感识别,例如公司 Affectiva、 Dehghan 等人 [36]或算法 Emotionet [37]。

领域专用人工智能在人力资源领域,特别是人工智能驱动的视频面试中的一些福利如下:

  • 时间。 缩短选拔流程时间以及候选人时间/交通距离。
  • 招聘任务更轻松。 可以多次回顾视频和面试。
  • 定制化的候选人体验和定制化问题。 可重复和澄清问题。人力资源经理可以自定义问题和回答,并为每种特质设置个人评分。
  • 对细节的关注. 像HireVue这样的系统可以在每次面试中检测多达25,000个人类特征数据点。12它在可同时分析的特征数量上可以超越人力资源招聘人员。
  • 关注眼神停留时间、情绪/语调和肢体语言 对于面向客户的职位至关重要。
  • 减少与外貌、配饰、纹身和地方口音相关的人为偏见。 招聘人员偏见在以往的研究中已被实证考察 [38]。如果系统设计得当,应更注重回答和关键词,而不是受到此类偏见的影响。fluenced by such bias.

关于使用这些技术时伴随的问题,需要强调的是该技术的不精确性以及性别和种族偏见。这会导致凭直觉招聘出现偏差,或造成选拔的个体与初始训练集具有相似特征。如果预测性人工智能所使用的数据基于例如表现优异、蓝眼睛、金发、伦敦居民且接近母语为英语的候选人,这些观察结果就会带来挑战。目前,公司和初创企业将开发自己的人工智能算法;但就目前而言,它们依赖于多样性不足的有限公共数据库。例如,数据库- Affectiva,13-中的- 数据即属此类情况。

最初输入的图像是来自北美、更具体地说是超级碗14的观众,这些图像以英语表达不同情绪,事实上还富含语调变化。因此,很难保证其他种族和文化(如亚洲人)会表现出与北美人群相同程度的情绪表达水平,而北美人群传统上被认为比其他文化更善于表达且健谈。这可能会被误认为是无行动或缺乏动力——例如,在商业职位中所需的积极性。近年来有一些关于情绪检测的研究,例如Deghan等人[36]将照片标注为最多七种情绪等级:“高兴”、“悲伤”、“中性”、“厌恶”、“恐惧”、“愤怒”、“惊讶”。需要理解的是,这些类别只是一个子集,并不能推广到每种文化。表2列出了已识别的主要问题。

Tab第2章:视频面试中图像分析的问题类型 查看

问题类型 描述
候选人不熟悉 视频面试分析 在选拔流程中,对候选人而言有两个核心价值:信任和信息。候选人通常不熟悉这种技术以及在面试中表现出色并最大化成功率的设置,即使他们可以事先选择探索该工具。一些手势,比如移开视线来自摄像头的数据当然不应被误认为是整体表现。自信心由于智能手机中图像失真而受损
技术的不精确性和不完美 训练集 该技术并未在最大程度上反映现实。人工智能存在不精确性,因为它依赖于有限的且某种程度上带有偏见的数据集。最初的偏见可能会影响算法在后续的迭代中
性别和国籍偏见 谷歌被认为对男性声音存在偏见。在识别同性恋/异性恋时,某些语言/口音的线索和声音更容易被考虑同性恋由听者和分类器
使用过于通用的分类器进行训练以及广泛的数据集 训练测试使用了非常通用的数据集,例如人类。该公司使用来自过往表现优秀员工的“专有数据”进行对比性档案,导致内婚制和不公平结果。基于种族偏见的学习算法在计算机科学中也是一个根本性问题。有关种族识别和混血识别的问题
技术限制 人工智能分析中,若光线不足,种族检测(或肤色)的不准确性直接照射面部或在夜间条件下。基于实际的歧视
在毫不知情的情况下涉及种族问题
## 5 人工智能在招聘中的伦理和法律影响

在第4节中,我们探讨了招聘软件的优缺点。优点与技术限制、用户认知体验以及人力资源业务流程相关。接下来,我们将主要关注软件的伦理和法律影响,这些影响不仅由软件限制引起,还与公司对面试设计的有意选择相关。

某些特征的分析给政府和监管机构带来了挑战。在某些国家,向候选人询问某些问题属于非法行为(例如年龄),且候选人不应在简历中包含出生日期等个人信息。他们被要求在选拔过程结束时填写有关种族、性别、性取向或成长背景的信息问卷。需注意的是,在美国的面试-环境中,应避免提出一些常见但属非法的问题[39]。人力资源经理经常询问婚姻状况、子女情况、先前逮捕记录、国籍、首要语言、债务状况、社交饮酒以及退役军人身份等问题。反歧视法律涵盖就业、保险、住房及银行业等多个领域[40]。

尽管法律学者多年来广泛使用了代理歧视-这一术语,但我们正看到一种趋势,即对与人工智能与大数据分析效应相关的有意和无意代理歧视进行分析[40,41]。接下来,我们简要描述一下代理歧视的可能性,但是可以理解的是,这也会导致人力资源(HR)领域出现不公平的决策。代理歧视是指基于合法或看似无害的理由(例如邮政编码),对受保护类别或受保护群体(如种族、高收入人群等)进行有利或不利的歧视。这些歧视理由与属于某一受保护群体高度相关(例如少数民族居住在同一区域或贫民区)。因此,这种隔离最终会影响受保护群体,并成为进一步歧视的原因。当这种有利或不利待遇背后存在人类行为者时,我们称之为“故意” 的代理歧视[40]。然而,用于测试和训练的数据集的性质和组合也可能导致“非故意”的代理歧视。依赖外部来源常常会导致更多的算法偏见。通常情况下,公司会认为,如果某项做法能够预测未来表现,则可将其视为商业必要性,因而不违反平等就业法规。即使这些做法类似于历史歧视模式或使用了有限数据集[42]。

需要注意的是,算法能够检测到,并且有时还能防止自动分析导致的间接歧视。佩德雷斯基等人[43]在其研究中很好地描述了发现证据自动决策支持系统(DSS)中的歧视,用于社会敏感任务中的筛选目的,包括获得信贷或抵押贷款,追踪输入(如ZIP等无害的候选人数据)是否可能导致错误的是/否决策。哈吉安和多明戈‐费雷尔[44]提出了有效消除直接和/或间接歧视偏见的技术。因此,他们在论文中强化了佩德雷斯基的提议,即尽管使用训练偏差数据集,仍可诱导出避免歧视性决策的模式。

这些案例促使我们思考,未来几代学生和候选人应如何为这类面试做好准备,以及人力资源领域将如何发展?公司可以选择定制其系统,并自主决定未来员工的特征。但首先对男性或其他子集进行分类是否符合伦理?这种黑箱评估的想法无助于某些群体的赋权,反而可能导致这些群体在面试环节中被边缘化或遭受不公平待遇。

尽管有报告表明HireVue系统的招聘结果具有高度的多样化,并且非白人候选人和性别平等的比例更高,但关于具体情况仍存在一些虚假信息该软件针对每个职位,包括初级、管理等各类职位。这与前一节讨论的观点一致。技术不仅带来了与技术限制和有偏见的数据集相关的缺点,而且虚假信息和偏见还加剧了问题。与从少数群体或受保护群体进行信息收集相关的法律保护导致了更大的不准确性。计算机科学中的典型和经典算法对白人效果更好,仅仅因为该技术最初由白人男性创造,并且最初主要以白人进行测试。

另一个争论的问题是某些法律影响分析。图像识别技术已发展得如此成熟,甚至可以通过对面部特征的分析来识别候选人的年龄或性取向[6,45,46]。正如前面提到的,谷歌被认为对男性声音存在偏见,这使得这些技术进步的法律有效性受到质疑。算法可以被调整以根据生物因素、皮肤类型、秃头等情况检测真实年龄。根据西班牙法律,30岁以下和40岁以上的人可以缴纳更少的税收-岁-的人员以及40-岁-以上人员。出于节约成本的考虑,人工智能可能会被调整以歧视年长者或年轻人,可能专门寻找女性或少数群体,或在招聘中排斥他们。

雇主自行决定或基于任意或临时就业。性取向检测也遵循类似的模式。鉴于此,一些批评者——包括美国心理学会——在允许王和M·科辛斯基的研究发表之前提出了审查意见,认为使用此类软件是非法的,并违反基本公民权利。

6 面向自动化支持人力资源审计

显然,由于图像处理技术的进步,在选拔过程中对候选人的种族和性取向进行识别所引发的法律问题,涉及不容忽视的伦理问题。审计机构、政府、伦理委员会和心理学专家需要对此进行仔细分析。

在本节中,我们描述了一种用于审计的多-代理软件架构方案,如图1所示。代理在异构领域中的协调[47]和互操作性已广泛应用于不同领域,如医疗保健[48],因自然灾害引发的紧急情况[49],智慧城市[50],等。多-智能体系统(MASs)还被用于改进复杂组织中的业务流程。实际应用

示意图0

大型跨国公司以及格式和法规的差异使得有必要创建架构和模型来管理不断变化的特定代理群体。已有研究提出了一些架构,用于应对特定生产领域(如制造业)中的随机性和快速变化,但这些架构也可应用于其他动态的企业环境[51]。在跨国背景下的招聘场景同样快速而复杂,需要相应的模型支持。迄今为止,关于人力资源(HR)与多智能体系统(MAS)作为使能技术的应用的相关文献尚不多见,但如上所述,此类架构已在制造和企业生产控制中得到广泛应用(例如乔尔特亚等人[52])。法律领域对多智能体系统应用持开放态度,并在过去十年中受到沃克[53]等法律学者的关注。

图1 展示了一个抽象的多智能体系统架构,该架构必须能够适应不同国际企业环境以及不同国籍招聘人员对国际合规的需求。在跨司法管辖区域的情况下,存储法律知识并进行有效核查和推理的挑战变得复杂。

要实现一个功能系统,所有代理必须完全互操作。架构核心包括三个必须协作的不同方:(i)招聘方/公司,(ii)外部审计员,以及(iii)(如有必要)公司注册国或招聘所在国以及候选人原籍国的政府/主管部门。我们设想的审计系统适用于各种选拔流程,并在从技术类到管理岗位的不同职位类别中以相同方式运作。然而,需要注意的是,视频面试系统专门设计用于减少候选人时间,并在拥有数千名申请者的选拔流程中筛选候选人。这种情况更常出现在企业层级的较低级别,例如实习生或毕业生的选拔。经理通常由猎头推荐并由董事会直接选定。尽管如此,人力资源中的人工智能仍可用于创建预测在职员工成功晋升的模型。所有代理之间没有特定的层级关系,也不存在相互依赖关系。然而,面试设计代理似乎负责启动选拔流程,并通过公开职位来迈出第一步。它如同选拔过程代理负责关闭流程一样,是面试的先驱。不过,关于人工招聘人员与代理如何交互的问题可能引发一些疑问。人工招聘人员和审计员将部分职责与核查委托给代理,而代理自身也可进行附加推理或测试。

额外的审计核查根据内部审计核查的要求按需进行,或由代理在没有事先请求的情况下执行。我们旨在通过规范性推理来规范人类与人工代理的行为。可以说,我们假设代理会按照应有的方式行事。对于类似我们所处理的情况,强烈建议考虑使用规范性多智能体系统或多智能体系统的规范性推理。

面试审计代理在发生违法情况时需要获得候选人批准。一旦完成所有必要的检查,信息将反馈给负责结束选拔过程或基于法律/伦理理由取消该过程的选拔过程代理。不过,候选人数据代理可自行承担风险进行一些额外检查。

与代理、经理、审计员和当局相关的数据分析工作流程(例如法律和国籍审查)对于确保国际合规性至关重要。最终目标是尽可能提高系统的效率、透明度和中性,即减少或缓解种族和性别歧视,以及防止公司通过适用其注册地国家的法律而非招聘所在国的法律来获取某些法律利益的情况。劳动法的一个有趣事实是,一些国家(如巴西)会为本国国籍保留某些工作岗位。可以理解的是,需要进行大量必要的检查以确保公平流程。

6.1 面试设计代理

为了设计和比较不同且公平的面试,需要一个面试设计代理。该设计代理位于公司总部。根据公司要求,可以设计一些面试档案,以便之后在全球范围内招聘(例如软件工程师、市场专家)。该代理的输入是空缺职位的具体特征,无论是否有争议(例如经验、商业角色、年龄 > 40、性别 = woman、英语/西班牙语母语者)。输出则是针对特定职位的自然语言面试问题,以及以结构化格式呈现的可能答案评分和预期排名(乐观度50%,商业形象60%等)。预计完整实施将需要使用资源描述框架(RDF)或本体等技术作为起点,以定义和统一格式。一旦面试设计完成,将提交至数据库,供公司内部面试审计代理后续审查。

6.2 公司内部面试审计代理

公司内部面试审计代理负责管理不同分支机构的选拔流程。人工招聘人员从企业数据库中为特定职位(例如软件分析师)选择特定的通用面试。该通用格式适用于各个区域场景,如欧洲、亚太地区和中东,并根据招聘公司的国家文化和当地文化调整候选人的选拔标准。该代理控制人工招聘人员之间的互动,并决定在处理有争议的数据时是否有必要将面试推进到下一阶段。该代理以结构化格式接收面试信息(随后在人力资源团队内部分发),并返回该流程是否需要审计。如果信息需要进一步验证,则将其传递给其他代理。所有法律和道德事务均在公司外部的外部审计机构和政府场所进行。如果问题简单且无需法律处理,招聘流程可能在此阶段结束。

6.3 选拔过程代理

选拔过程代理是所提出的多智能体系统的核心元素。它驻留在正在进行选拔过程的公司分支机构中。它负责处理系统中发生的各种事件(新面试、新的审计和法律检查、当局等),在必要时触发新事件,并向人类面试官提供候选人排名。它偶尔可以重用其他公司的面试结果;它协调不同的公司、外部中立审计员和当局,但仅在必要时进行。如果不需要外部审计——未发现争议性问题——选拔过程代理将直接向候选人提供反馈。

6.4 候选人数据核查代理

一旦候选人档案到达外部审计员,可能由于数据的敏感性或不准确性,需要候选人的某些确认或许可才能继续进行数据处理。由于该多智能体系统的主要目的是评估每个阶段的选拔过程,候选人数据核查代理将及时通知公司方候选人否认确认或不同意以特定方式使用其数据。

6.5 劳动法外部审计代理

人工审计员或内部审计代理可选择性地进行法律测试。这些分析非常便捷,因为劳动法代理会在不同的法律法规下运行多种检查,特别关注劳动法。对于所提出的架构,我们聚焦于美国和西班牙劳动法。系统将有一个数据库用于存储以基于规则的格式方便表示的法律条文。具体而言,我们采用如果‐那么规则格式条件 ⇒决策,其中“条件”是一个逻辑公式,“决策”可以是(i)包含、(ii)警告或(iii)排除。如果某条规则被触发(条件=为真),且其决策为=排除,则意味着该候选人被排除在选拔过程之外,而其他两种可能的决策则表示继续参与。警告决策可用于后续的报告、审计和统计目的。在下面的第一个示例(R1)中,使用警告来提示符合福利条件的情况(例如年轻的失业候选人)。

我们假设知识库中的规则集是一致的。这意味着不存在不同的规则被触发(例如,条件为“age< 16” 和“age< 60”)后,对相同的输入数据产生不同结果的可能性。然而,如果这些规则得出相同的结论,则允许这种情况存在。因此,负责填充知识库的知识工程师必须注意保持一致性(她可能会借助一致性检查或编辑工具来协助工作)。

以下规则综合考虑了西班牙不同公民群体的企业财政福利以及法律违反情况。警告用于提示可能符合福利条件或不符合福利条件、需后续审查的情况:

R1: 年龄 < 30 ∧ 第一份工作 ⇒ 警告
R2: 年龄 > 45 ∧ 失业 ⇒ 警告
R3: 恐怖主义受害者 ⇒ 警告
R4: 性别暴力受害者 ⇒ 警告
R5: 年龄 < 30 ∧ 第一份工作 ⇒ 警告

劳动法代理能够适应涉及多个国家和司法管辖区的新法律情景。在发生违法情况时,它将通知主代理,即选拔过程代理。对于美国立法而言,由于其对种族歧视具有特别保护性,任何细微的提及在招聘流程中因种族而排除某人一次的情况可能会被标记为需要关注(警告),例如:
R1: 非白人 ∧ 拒绝 ⇒ 警告
R2: 混血种族 ∧ 拒绝 ⇒ 警告
R3:少数群体 ∧ 拒绝 ⇒ 警告

审计的主要目标之一是劳动法代理在必要时进行的法律检查。只有当招聘流程中存在违法行为嫌疑时,公司内部审计代理才会将信息传递给劳动法代理。

通常,首先进行的分析之一是检查候选人的法定年龄,然后根据高级标准更精确地进行分析,以避免歧视。初步筛选将基于正当理由。例如,检查候选人是否达到在该国家进入就业市场的最低年龄或拥有工作许可。

西班牙劳动法对其他年龄先决条件更为宽松。在西班牙,人们可以在超过退休年龄后继续工作(积极退休,即同时作为退休人员并获得降低的薪水的一种方式)。我们通过以下规则将这一法律片段形式化:

R1: 年龄 >= 18 ∧ 年龄 <= 60 ⇒ 包含
R2: 年龄 < 18 ∧ 已解除监护的 ∧ 父母/监护人同意 ⇒ 包含
R3: 年龄 < 18 ∧ 已解除监护的 ∧ 经授权的 ⇒ 排除
R4: 年龄 < 18 ∧ 已解除监护的 ∧ 母亲授权 ∧ 父亲同意 ⇒ 包含
R5: 年龄 < 18 ∧ 已解除监护的 ∧ 父亲授权 ∧ 母亲同意 ⇒ 包含
R6: 年龄 < 18 ∧ 已解除监护的 ∧ 完全孤儿 ∧ 法定监护人授权 ⇒ 包含
R7: 年龄 < 18 ∧ 已解除监护的 ∧ 完全孤儿 ∧ 法定监护人授权 ⇒ 排除
R8: 年龄 < 18 ∧ 已解除监护的 ∧ 部分孤儿 ∧ 母亲授权 ⇒ 包含
R9: 年龄 < 18 ∧ 已解除监护的 ∧ 部分孤儿 ∧ 父亲授权 ⇒ 包含
R10: 年龄 < 18 ∧ 已解除监护的 ∧ 部分孤儿 ∧ 母亲授权 ⇒ 排除
R11: 年龄 < 18 ∧ 已解除监护的 ∧ 部分孤儿 ∧ 父亲授权 ⇒ 排除
R12: 年龄 > 60 ∧ 依法退休 ⇒ 排除
R13: 年龄 > 60 ∧ 依法退休 ⇒ 包含
R14: 年龄 > 60 ∧ 依法退休 ∧ 积极退休状态 ⇒ 包含

法定代理人也可能触发警告。它可以进行完整性检查,以检测福利的授予,无论是否非法。例如,它将能够检测到仅基于雇主的财政利益以及基于经济原因的积极歧视,按性别或年龄对个体进行预先筛选。同样,以下规则分类可用于统计和报告用途,即记录符合各类福利或税率减免条件的候选人数量:

R1: 年龄 < 30 ∧ 第一份工作 ⇒ 警告
R2:年龄 >= 45 ∧ 长期失业 ⇒ 警告
R3: 性别 = 女性 ∧ 家庭暴力受害者 ⇒ 警告
R4:恐怖主义受害者 ⇒ 警告

在我们的工作中,我们决定引入一个规则引擎来实施法律分类器,目前最多包含100条规则,并针对两个国家专门组织成规则文件:西班牙和美国。在预选可能被视为最实用子集的法律法规时,美国和西班牙是两个重要范例。这两个国家拥有最广泛的法典、法规和正式法律渊源,其中均包含对“受保护属性”的规定”[41]。西班牙为根据受保护属性(如年龄)聘用员工的企业主提供补贴。这种积极歧视旨在帮助某些弱势群体(例如女性和年轻失业人员)更容易进入就业市场。在美国这一复杂案例中,法律禁止多种歧视行为。其中种族问题尤为突出。《美国民权法案》第七章禁止基于种族、性别及其他受保护属性作出雇佣决策。然而,该法并未禁止面试官事先知晓候选人的种族,仅禁止作出歧视性决策。幸运的是,在社会更广泛领域(如住房与信贷决策)中使用受保护属性进行决策的情况正逐步受到法律限制[41]。在英国,《2010年平等法》及其他相关法律法规也发挥着保护作用。

因此,我们将分析范围缩小至美国和西班牙案例,并计划尽快涵盖巴西案例,巴西是全球劳动法领域最引人注目的案例之一,其多项国家法律对巴西公民的就业给予优先权。

7 伦理代理

如果用户数据存在较大争议并涉及伦理问题,例如面试格式包含用于检测年龄或性取向的术语或分析特质,则内部审计代理会将数据传递给伦理代理。这种情况仅在足够多的情况下发生发现证据以完成伦理测试。伦理代理采用基于规则的方法,进行与劳动法代理类似的分析。伦理代理还可以借助伦理委员会和专家支持该分析,以裁决是否存在对受访者隐私的过度侵犯。

该代理的输入是由内部审计代理提出的一项请求,它将返回伦理批准或不批准(包含/排除或带警告包含)。该伦理代理将由面试审计代理进行调解。当在候选人标准数据库中检测到任何细微异常,包括正向和负向歧视时,审计代理会向伦理代理发起核查。若因法律原因需接受该候选人,算法将包含此规则,并通过警告来检测可能的偏见,如下例所示:

R1: 候选人 ∧ 同性恋 ⇒ 警告
R2: 候选人 ∧ 异性恋 ⇒ 警告
R3:候选人 ∧ 跨性别 ⇒ 警告

这三条规则的选择方式类似。首先,评估面试内容。如果审计结果显示,在面试中出现了“性取向”、“异性恋”、“跨性别”、“同性恋”等术语——无论是排除的调查还是机密数据的统计处理——则该候选人可能会基于性取向被预选或排除。系统将发出警告,以提示存在不恰当的面试内容的证据。

性取向和宗教可能被视为比伦理规则库中其他规则更严重的歧视情况。在面试中追踪“种族”一词的使用会相对较不疏忽,因为公司在某些情况下保留聘用特定种族候选人的权利,例如在时尚行业,或出于统计或调查目的,如员工中少数群体的代表性。

7.1 主管部门代理

如果一家公司外派并招聘国际候选人,主管部门代理将协调不同政府的决策,并须决定该公司是否需遵守额外程序,或是否需要在城市人口普查中核查外国候选人的登记信息。公务员或公司还可联系候选人,要求提供签证、护照或难民身份,以便进入选拔过程的后续阶段。

7.2 系统操作

在本节中,我们包含了对面试进行全面法律审计的选择的更详细说明,以便简要描述系统的输入和输出。最终结果将是一份审计报告。代理的推理所产生的警告消息及其他结果将在整个过程中向人类和代理审计员显示,并用于后续的报告用途。

该系统由两种不同类型的代理组成:企业代理和审计与主管部门代理。接下来,我们将介绍代理之间的交互方式。需要强调的是,所有代理均在同一层级上运行,并且彼此之间不存在依赖关系。尽管系统无层级结构,但有两个代理尤为突出:首先是面试设计代理,它启动选拔过程;其次是选拔过程代理,负责完成招聘流程。多智能体系统(MAS)的积极内在特性在于能够无需重启其他代理即可初始化不同代理。人类审计员或招聘人员可向代理请求审查,代理也可自主执行推理或自动化任务。伦理与法律分析已与其他系统部分集成,但角色分工明确:一方面为企业分析,另一方面为外部审计。法律审查将独立于企业程序,仅在特定情况下进行。

我们提出了一种用于自动化法律和伦理分析的基于规则的系统。偏见通过“警告”得到适当检测。因正当理由导致的候选人排除将立即触发排除规则,并通知后续终止招聘流程。带警告的纳入将导致负面报告。在此分析之后,内部审计代理将确定是否存在足够的证据支持数据请求或产生负面审计结果。

架构的核心要素是选拔过程代理——负责结束选拔过程——以及内部审计代理。审计代理将在必要时请求进行伦理与法律审查。在极少数情况下,如果面试模板中出现不道德关键词(例如“宗教”),内部审计代理将进一步请求进行伦理代理分析。

例如,在设计的访谈中识别出“性取向”或“宗教”一词,将基于正当理由予以包含,但automatic fi发出警告或负面审计信号,而其他词语如种族则会fi引发后续审查的警告。例如,在模特或时尚行业,公司实际上可能确实希望招聘黑人或亚裔人士,但据推测,没有任何公司应根据宗教或性取向进行招聘。因此,伦理审计的结果将为“非-伦理的”。歧视感知数据挖掘研究的主要目标是避免非法歧视。根据卡尔德斯和弗尔韦尔-的研究’s work[54],,由于观察到属性之间存在不期望的依赖关系,因此首次提出了歧视-感知分类fi的概念。此外,文章指出,根据某一特定特征对候选人分组会导致某一群体优于另一群体。这种所谓的分层和红线-效应首先会在未来的迭代中优先考虑少数群体及问题;随后,分类器会偏好某一群体,并使用与这些预选特征相关的特征来应用相同类型的规则。

有时,机械地应用-歧视-感知的数据挖掘以避免整体歧视,可能会忽略时尚或公司需求中的真实职业要求,因此,可以理解的是,偶尔出于商业目的跟踪敏感属性可能是方便的。佩德雷斯基等人[43]深入探讨了被回应方-(公司)能够反驳的所谓直接歧视案例,这些案例可能是合法的。在所提供的示例中,他们假设了一种情况,即申请某个职位的女性遭受了歧视(公司)主张存在歧视。例如,性别为女性、城市为纽约的申请人被排除在外(例如 性别 =女性 ∧ 城市 =纽约 ⇒排除)。

公司可以支持辩护,即该规则是更通用规则的一个实例:drive_truck ∧ city = NYC ⇒ exclude。这是一个合法的规则,确实是特定工作的真正职业要求,因此可以合法地排除女性。

听证的主要目的确实是劳动法代理进行的法律检查,以及必要时的伦理审查。假设面试将包含大量机密信息和私人回答,通常这些信息将由外部法律代理处理,以确保执行该流程的国家没有违反劳动法。

同样,如果面试格式或候选人数据的扫描似乎不符合基本法规,企业内部审计代理将提出进行外部法律测试的请求。

关于与规则相关的拟议修正,该用例包含了针对西班牙劳动法的规则规范。然而,所提出的架构和系统旨在适用于不同法律法规和设置,而这些法律法规和设置在反歧视法方面存在显著差异。因此,所包含的规则仅为一个有限子集,用于说明该系统在未来用例中的系统灵活性。

以下,我们全局描述该流程和工作流程中最相关的步骤,从公司决定在分支机构开设新职位开始。按照逐步的时间线,系统最初的输入是与特定职位相关的纯文本格式的面试内容。至于面试的详细信息,有一个重要的记录字段:面试语言以及与技能相关的STAC(技能、特质、能力与特征)问题的定义。

  1. 中央人力资源经理创建一个职位(通用规格)[内部活动] ,以在不同的分支机构中应用,例如:
    示例1.
    级别:分析师。部门:投资银行。地区:亚太。职位:风险分析师。
    示例2.
    级别:经理。部门:财富管理。地区:欧洲、中东和非洲。职位:财富经理。

  2. 区域分支机构招聘人员根据其特定情境和需求调整通用规格。她将在面试设计代理的协助下创建面试脚本。面试包含STAC(技能、特质、能力与特征)问题。面试将针对特定语言和国家进行定义,问题中将明确分为三个类别:行为问题(肢体语言和反应时间)、领导风格(适用于商业角色)以及可选的企业问题(出差意愿、理想工作和经济补偿)。如前所述,这些是可能的、通用的类别,但面试的设计由公司自行决定。

  3. 公司发布该公告。

  4. 选拔过程代理分析面试,旨在检测重大歧视(例如宗教)。

  5. 候选人面试进行并存储在面试数据库中。

  6. 选拔过程代理根据面试问题和候选人回答进行推理。它通过分析排除因正当理由(例如未达到合法工作年龄)的候选人。入围候选人将进入下一步。

  7. 公司内部审计代理在出现警告或入围候选人存在异常情况时,会将信息传递给劳动法审计代理和伦理代理。如果需要将有关公民身份状态的候选人数据与分析结果进行核对,则会将这些数据传递给候选人数据核查代理。如果没有伦理或法律处理需求,内部审计代理将关闭分析,并将入围候选人移交给选拔过程代理。

  8. 劳动法代理、伦理代理和候选人数据在必要时应外部人工审计员的要求请求进行健全性检查。候选人数据核查代理在必要时联系候选人本人或当局以确认公民或外籍人士身份。这些测试是独立的。它们生成确认文件,并将有关公民身份以及法律和伦理警告的信息反馈给选拔过程代理。

  9. 选拔过程代理负责结束选拔过程,并向人工招聘人员提交一份包含候选人排名的报告。人工招聘人员根据评分决定是否聘用,最终决定权由其自行掌握。

8 讨论

人工智能将是在招聘方式上的一个转折点,特别是与认知心理学相结合时。它节省了候选人的时间,并减少了面对面面试的地理距离和时间。

科学家们,尤其是公司,是否能够根据自身议程逐步提升算法的能力或将其推向极限,这是值得怀疑的。必须加强对这些系统的审计和监管,无论以何种方式,这些系统都表现良好。招聘技术能够检测到每分钟11次动作,超过人工招聘人员。因此,需要可穿戴设备或麦克风、增强现实眼镜等认知辅助工具,以使候选人有机会表现出色,并弥补其个人缺陷。

人工智能的未来及其在组织变革管理中的影响应更具包容性并提供更多信息。同样,机器学习分类方法提醒我们关注细节的重要性。为了通过机器学习算法训练实现良好的聘用效果,数据集应具有多样化特征,以支持学习背后的理念,即泛化能力以及对新个体的后续应用。

在本文中,我们阐述了领域专用人工智能在人力资源领域的优缺点。值得注意的是,当前领域专用人工智能存在一些挑战,例如缺乏推理能力,且仍处于实验阶段。如上所述,训练数据集并不完善,导致人工智能也不尽完善。

关于人力资源领域专用人工智能的未来方向如下:确保机器学习和特定领域的人工智能对许多人同样有效且保持中性,保证训练集的多样化。

  • 良好分类的条件尚不明确,但存在一些技术上有利于录制和表现良好的条件,这些条件有助于避免误报(例如高质量麦克风和与摄像头的距离)。
  • 提高候选人对机器硬件和可穿戴设备的意识,以获得更好的结果。向候选人告知公司的语言要求。信息充分的用户将避免分类错误问题。
  • 促进领域专用人工智能在人力资源方面的适当审计,以避免操纵性使用。目前系统略显不透明,且尚未经过正式审计。
  • 最好降低肢体语言在候选人评估中的重要性,而更关注回答内容。技术特征,如光线和行为,并不那么重要。追踪候选人从摄像头移开视线的次数,会不利于那些自然、随性且不习惯直接凝视的候选人。另一个面试建议是尝试不同的排名方式,而不仅仅基于表现最佳者预先筛选候选人。
  • 解决性别偏见问题。盲选 audition 被证明是有效的。
  • 控制中小型企业的数字化变革步伐。一些企业担心自身创新不足,但盲目采用视频面试可能会导致业务中断:“一项2013年牛津大学的研究指出到2033年,美国将有近43%的工作岗位实现自动化,而在发展中国家这一比例可能高达70%。”15

尽管在人力资源领域有如此多的期望,但应该注意到,人工智能只是一种工具,其伦理问题始终取决于创造该工具的人。图像处理非常强大,能够洞察普通事物之外的内容。在这种情况下,需要加强治理。从更广泛的角度来看,如果基本劳动法和人权受到侵犯,政府应监督选拔流程。特别是由于全球就业市场的多样化性质,预计员工的流动性将不断增长,他们将面临不同国家法规的不同做法(例如,一些国家将某些工作保留给本国国民)。

关于识别性取向的想法,让我们意识到其难度。每种语言中的线索和声音都各不相同。性别也是如此,男性的元音时长比女性更短。问题可能不仅出现在女性、男性和国籍的声音技术细节上。一家公司或国家能够预测员工的性取向,这可能会带来潜在危险。考虑到有许多国家谴责同性恋,这一点至关重要。

9 结论

用于招聘的人工智能背后的矛盾在于,它依赖于使用有限数据集训练的专有产品。尽管这些技术在分析某些特征方面具有准确性,但它们在初期并未被视为主流招聘工具。事实上,出于效率考虑,越来越多的大型企业开始逐步采用此类软件来处理成千上万的候选人。如果公司出于错误的原因进行招聘,或由非民主国家控制,例如针对少数群体、女性、特定年龄以下或以上的人、老年人、移民或带有口音的客户进行选择性筛选,则该软件无法控制可能产生的歧视性结果。图像处理甚至可以根据外貌原因筛选候选人。

这种现实最终与大多数司法管辖区的劳动法相冲突。例如,美国法律对种族歧视提供了特别保护。1964年民权法案规定,禁止“不当对员工进行分类或隔离”在选拔流程中按种族筛选申请人。美国劳动法仍然适用于许多地区,例如美属萨摩亚、关岛、北马里亚纳群岛自治邦、波多黎各和美属维尔京群岛。即使招聘人员和公司是外国人,也应遵守美国法律,该法律特别保护40岁以上年龄和种族免受歧视。

我们在前面的章节中已经说明,当前的技术能够轻松地从图像中检测种族。这种歧视可能很微妙,尤其是在涉及晋升员工的选拔过程中。与性取向相关的歧视也是如此。-该技术对隐私没有任何限制。尽管在主要属性或受保护类别(如种族和性别)方面达到了最低程度的公平性,但在机器学习分析中,要评估其他子类别及其组合之间的副作用和相互作用仍然非常困难。整体公平性在某种程度上是无法实现的。因此,随着人工智能技术逐渐成为主流并广泛应用于刑事司法到金融等不同且多样的领域,人们越来越关注人工智能技术的局限性以及“交叉性”的影响。这种影响“交叉性”尤其令人担忧,特别是当它成为主流并且其应用扩展到刑事司法到不同且多样化的领域时金融[55]。

最终需要讨论的是,我们是否应该完全依赖私营公司和人工智能解决方案,而不是将其视为当今的现实:一种存在局限性的工具,即计算机辅助招聘。人力资源领域的技术已经取得了巨大发展,但往往失去了人类的因素。

在本文中,我们分析了常用招聘软件所测量的有争议的特征-。本文立足于我们的研究基础,从技术和信息两个角度进行总结。相较于我们先前发表的工作,本文更准确地指出了增量:先前的研究仅简要介绍了提案[56,57]或更侧重于语义技术与法律推理的技术细节[58],而本文则更深入地探讨了面试过程中图像分析的优势与劣势,并讨论其法律和伦理影响。为克服这些问题,我们认为应对招聘流程实施审计。我们提出了一种多智能体系统架构,以支持人类开展这些审计程序。该原型提出的最显著问题是,需要足够自我批判地认识到本提案的局限性,这是由于格式差异、互操作性需求、不支持审计的专有人力资源软件产品以及无法访问真实的企业人力资源业务场景所导致的。因此,该提案目前仅限于基本代理的-检查与推理。对人工智能的审计提出了与人工智能技术当前先进水平相一致的挑战。

在充分考虑本提案的固有局限性以及仅用一篇论文难以详尽解释复杂系统的情况下,我们包含了对系统功能的全面描述。仍存在一些有待解决的问题,例如完整描述知识表示,如使用本体对面试和职位描述进行形式化,以及促进互操作性和多种格式的支持。依赖共同的词汇表有助于改善代理之间的交互。

在此行中,我们可能需要对我们当前使用的规则格式方法进行一些扩展,甚至采用一种不同的范式。例如,优先级有助于解决规则不一致的问题,同时尽可能保持规则的简洁性。我们正在考虑的另一个选项是设置多个警告级别,例如,支持某个警告的规则数量越多,则发出该警告的置信度越高。

我们继续分析哪些代理的职责可以实现自动化和半自动化,以进一步加强全面自动化。目前,该系统在某些情况下被设计为人力资源经理的决策工具或辅助决策工具。一些分析仍保持半自动化。未来,我们计划研究所提出架构的开发,并在实际操作中对其进行测试。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值