在招聘过程中使用 LLM 是否会使你作为候选人成为欺诈者?

原文:towardsdatascience.com/does-using-an-llm-during-the-hiring-process-make-you-a-fraud-as-a-candidate-99a05678536b

我在 LinkedIn 上看到了一家咨询公司总监的一篇文章,描述了他如何分配一篇关于机器学习系统模型漂移的论文来筛选潜在候选人。

然后,基于他基于直觉设定的标准(“你能闻到它”),他使用了四种不同的“AI 检测器”来“确认”申请者使用了 ChatGPT 来撰写对论文的回应。

Adam Sroka 在 LinkedIn 上的帖子:我在招聘过程中自动拒绝了使用 LLM 的候选人。我设定了…… |…

“疑似”由机器人生成文章的标准是:

  • 奇怪的句子结构

  • 古怪的类比

  • 重复

  • 从一种英语方言切换到另一种方言(来自同一申请的不同写作样本)

一个明显缺失的标准:准确性。

这种做法背后的逻辑是使用 AI 工具试图颠覆候选人选择过程。不用说,评论是疯狂的(而且非常 LinkedIn-core)。

我可以理解这个论点,尽管我觉得他的方法不够严谨。看起来他想要避免那些会直接从 ChatGPT 复制粘贴回答而不加审查的候选人。

然而,我认为这篇文章提出了一个有趣的问题,这是我们作为一个社会需要探讨的问题——在招聘过程中使用 LLM 来帮助你写作是否算作作弊

我会说我不同意。以下是我为什么认为使用 LLM 来帮助你写作是完全可以接受的,以及为什么它不应该排除你作为候选人。

作为对总监的额外奖励,我将包括一个基于他们如何使用 LLM 和 AI 工具来筛选候选人的更好方法。

人类在没有 AI 的情况下也能写出糟糕的文章

让我明确一点。有许多情况下使用由 LLM 生成的文本是不道德的。例如,当为Towards Data Science撰写文章时,如果明确禁止用于艺术目的,或者当你正在为其他 LLM 创建训练数据时。还有其他一些合理的理由。

但是,我最近一直在思考关于 AI 内容检测的问题,以及可能用于检测它的特征。他们是如何捕捉到机器人写作的“某种特质”?他们使用哪些特征来判断一段文本是否过于诡异,以至于无法通过人类写作的检验?习惯了五年级学生写作的老师可以立刻分辨出来。因为这篇文章(技术上)是“更好”的。

当涉及到导演和他的候选人排除方法时,他提出的标准仅仅描述了“糟糕”的写作——人类在没有技术帮助的情况下也能做到。他从未说过他们的答案错了。

那么,为什么不直接因为写作不好而排除他们,而不是因为他们使用了 AI 工具?我敢打赌,他们中的许多人并没有使用 AI,因为如果他们使用了,他们的答案可能会更好。

让我们用一个来自电影世界的例子来说明。请使用“必要的怀疑暂停”框架来消化这个例子,而不要检查电影的历史准确性。

在 1984 年上映的半传记体历史剧《莫扎特传》中,作曲家萨列里被描绘成因嫉妒莫扎特而备受折磨。他嫉妒的根本原因是萨列里也是一个杰出的作曲家,他在技术上理解是什么让莫扎特的音乐如此优越。萨列里技艺高超,经验丰富,但莫扎特有天赋。尽管萨列里是他那个时代的伟大作曲家之一,但萨列里花费了一生的时间才完成了莫扎特年轻时就能完成的事情。

这种情感在 2015 年《蓝铅笔珠饰》的 Alicia 的博客文章“夜后”中被完美地总结:

你必须要有天赋——但你还得有纪律,尽可能最好地利用这种天赋。想象一下,如果萨列里能利用莫扎特轻松作曲的天赋会做什么。想象一下,如果莫扎特能利用萨列里的动力和专注能力(以及在皇家宫廷中攀登社会阶梯的能力)会做什么。莫扎特在维也纳浪费时间,他的许多最伟大的作品都未完成就去世了。萨列里过于关注作品的格式:它们听起来困难、生硬,甚至半痴呆的皇帝弗朗茨·约瑟夫都能感觉到有些东西缺失。

如果我们将相同的框架应用于理解使用 AI 帮助您写作的伦理,考虑一下 ChatGPT(莫扎特)在一分钟内能完成的事情。然后,考虑一下如果表达自己不那么费力,技术天才工程师(萨列里)能做得更好。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/58a7b05c0d8cc9e28cc4c53335614c1a.png

“莫扎特家族肖像” 由约翰·内波穆克·德拉·克罗奇创作 (公有领域)

如果基于候选人使用 AI 工具而排除他们的动机是质疑他们的可信度,我会对此提出质疑。如果一个候选人写出了一篇写得很好且事实准确的回应,没有方言转换和奇怪的类比,导演最初会在检测器中检查它吗?

如果他真的这样做了,他还会排除使用 AI 生成优越回应的候选人吗?如果一个候选人能够识别并筛选回应的质量,这表明他们是合格的。一个好的候选人能够发现幻觉并修改答案。

如果你想要一个完全不需要任何帮助的杰出作家,那就清楚地表明你追求的是这个。如果你想找一个能够优先安排时间的机器学习工程师,不要给他们一个秘密的写作测试。要求作为申请筛选的一部分提交论文本身就有些可疑——但最后的 AI 检测“陷阱”证实了你并不尊重候选人。

AI 文本检测是机器学习的血迹分析

你有没有看过节目*法医档案*?这是一个在 20 世纪 90 年代和 21 世纪初在CourtTV播出的真实犯罪节目。每一集都讲述了一个犯罪案件以及调查人员如何使用法医科学来解决它。血迹、咬痕、雪地上的脚印——你叫得出名字的都有。作为一个孩子,我认为科学是坚如磐石的。

作为成年人重新观看一些剧集让我感到困惑,原因很充分。他们现在的口号似乎变成了“没有目击者,没有线索,没问题”。

这在我看来似乎是个问题。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/f385b854ba1fe3a7e5c9f2982ec2a26c.png

照片由 kat wilcox 拍摄

尽管有越来越多的证据表明咬痕血迹不是确定犯罪性质或罪犯身份的可靠测试,但非专家法官仍然接受这些证据。然后,普通民众的陪审团基于错误科学将无辜的人定罪。

一篇2019 年 NBC 的文章引用了政府资助的测量法医方法极限的项目——法医证据统计与应用中心的主管艾丽西亚·卡里奎的说法。

根据卡里奎的说法:

“如果我们没有客观、可重复和可靠的科技,我们就不知道我们犯了多少次错误……我们甚至没有一种方法来估计我们犯了多少次错误。”

当然,在网上发表博客可能不如暴力犯罪严重。但这是一个严重的问题,人们的生活和生计受到了影响。AI 检测工具既不可重复也不可靠。

在一篇博客文章中,Linda Carroll 讨论了她如何将她的有机写作通过 AI 文本检测工具,并发现她的大部分写作都被标记为 AI。

使用 AI 检测工具本身就有一种真正的讽刺。因为 AI 是受我们训练的。字面意义上。它们给它喂了大量的互联网内容,教它如何写作。这意味着它从我们这里学习。而现在,如果我们像自己一样写作,我们就会失败。

在 Carroll 在 Medium 上发表的一篇类似文章中,许多创作者哀叹他们的写作被标记为 AI 生成的内容。AI 文本检测中的误报问题以及对检测 AI 文本的狂热正在损害那些多年来一直在磨练技艺的自由职业作家的收入,他们的写作最初未经许可就被用来训练 LLM。

关于主任的有趣之处在于,他并不欣赏使用 AI 检测器检测 AI 内容的讽刺,因为他不相信输出结果。你为什么相信检测器的输出,而不相信 AI 本身?是不是可能是因为你不信任的人?

AI 文本检测工具似乎是在炒作一个问题,以便提供解决方案。最好的部分是,就像糟糕的法医一样,我们无法衡量我们有多错。

你已经是半机械人了

即使在 ChatGPT 出现之前,算法就已经在统治我们的生活。它们也在(间接地)生成内容。推荐算法优先考虑某些内容,使其获得更多的关注。然后,我们说这是趋势,因此关于这个话题的内容也越来越多。

在 Twitter/X、TikTok、YouTube、Instagram 或任何其他社交媒体平台上,创作者根据表现好的内容制作内容。他们获得反馈,并做出调整。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/c0f7ad57ee9e18cdd6851e50aa62c168.png

https://www.pexels.com/photo/close-up-photography-of-smartphone-icons-267350/

影响者告诉我们买什么,吃什么食物,以及我们如何相互交谈。这不是一个新现象。语言随着每一代年轻人新鲜发现语言并将其据为己有而发展和变化。这些习惯是我们个人和集体经验的一部分。文化始终依赖于大众的智慧,就像那个告诉最新的预测文本玩具下一个应该说出哪个单词的集成算法一样。

当我还在中学时,拼写检查的出现让教育工作者感到恐惧,因为他们认为我们都会忘记如何拼写。我很高兴地报告,我们都很正常。我甚至在拼写上有所提高,因为那些我经常拼错的单词会实时指出,这给了我所需的反馈,让我习惯了正确的拼写。这比三周后收到被红色标记的论文影响更大。即时反馈是有意义的。

这是因为人类通过观察、互动和反馈学习如何沟通和写作。虽然我认为需要更多的研究来理解 AI 工具在孩子们第一次学习写作时的作用,但对于青少年和成年作家来说,与 ChatGPT 的互动可能有助于他们成为更好的作家。结果是,ChatGPT 和人类作家在风格选择上可能更加统一。

在 2023 年 3 月,由北卡罗来纳州立大学发布的通讯中,英语教授克里斯·安森写道:

在这种情况下,使用基于 AI 的自然语言处理器(NLP)来完成这项任务对人类作者的认知过程影响很小。原因是作者通常不会因为写作任务而显著改变,尤其是当它使用类似模板的语言时——这种语言经常重复,只是插入了一些独特的细节。相反,这些软件提高了效率,为人们留出时间去做更高层次、更复杂的认知写作。

如果你给 ChatGPT 提供良好的提示和一个有拼写错误、缺乏结构且需要更多语句变化的草稿,ChatGPT 很可能会给你回一个更好的论文。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/d1140c57ff6e05ede62bf400f6dd3d92.png

由 Google DeepMind 拍摄的照片

如果你这样做足够多次,你开始注意到可以帮助你写出更好的模式的模式。然后,你发展出自己的小算法来表达自己。如果人类作家能有一两个人看他们的论文并帮助他们重写,那真是太幸运了。ChatGPT 可以帮助你在一次会话中完成多次修订(而且你不必给他们买咖啡)。

然而,安森也警告说,使用 ChatGPT 生成对不理解的话题的回应是对教育系统的威胁,并且可能会通过提供未经检查的错误信息对学生产生负面影响。这些模型的准确性可能会随着时间的推移而提高,但学生仍然需要知道如何评估 LLMs 的回应以确定其事实准确性。

考虑以下内容,来自 Anson 的同一篇文章:

因为 NLP 系统将越来越多地成为我们日常生活的一部分,教育工作者需要找到原则性的方法将它们整合到教学中。例如,我要求 ChatGPT 解释机器生成写作的认知后果,它给了我一个我没有考虑到的额外想法,但只是在我写完我的声明之后。软件的回答是:“机器生成的写作可能会导致写作风格的同质化……”*

这里有两个好的观点。一个是我们应该努力找出如何将 AI 融入学习体验中,使其对学习者和社会都有益。

第二点是我们在训练模型,然后模型反过来又训练我们。

我们的写作风格将通过与 ChatGPT 的互动而改变,我们无法知道这会发生得多快。随着我们继续产生内容,模型得到更新,它们也会随着我们而改变。随着我们与工具的关系变得更加交织,我们将如何识别那些冒充学生的机器人?

我们不应该试图“捕捉”学生使用 ChatGPT 作弊,而应该向他们展示如何以道德的方式使用它,从而增强他们的学习体验。为什么我们投入了这么多资源来防止“作弊”,而不是投入资源来研究我们如何利用这些工具来改善教育体系?

基于他们如何使用 AI 工具来筛选候选人的更好方法

当主任想要找到一个简单的方法来找出他的候选人是否在走捷径时,我建议的方法需要更多的批判性思维。结果将不言而喻。

  1. 首先,作为一名雇主,考虑在你的行业中生成式 AI 的道德使用是什么。

  2. 然后,要求你的候选人解释为什么在那种情况下使用 AI 是不道德的

  3. 最后,AI 文本检测工具(目前)还不能标记出不良的道德行为。所以你将不得不自己评估这些。

一旦你这样做,你将有一种更有意义的方式来衡量你雇佣的人是否和你价值观相同。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/f0a62d23e8ec06b4ef3c7bbfa7a426ca.png

由 cottonbro studio 拍摄的照片

使 AI 伦理的对话人性化

关于 AI 伦理,没有共识。

我们都被设计用来通过生成文本的力量神奇地改善我们生活的 AI 工具所包围。因此,人们使用它们。

狂热的需求和不间断的广告让人感觉每个人都在使用 AI 更快、更便宜地完成任务。候选人因使用 AI 而受到惩罚,但雇主却使用同样的技术来排除我们。由于规则如此不明确,除非明确指出,否则没有人知道何时可以使用 AI,何时不能。

那么我们如何划清界限?

  • 在使用Teal构建简历或创建求职信时?

  • Swooped 上生成求职信吗?

  • 在使用 ChatGPT 来改进你的文章结构吗?

  • 在使用 Grammarly 来捕捉你的错误或重新措辞“古怪的类比”和“奇怪的句子结构”吗?

  • 在使用 LinkedIn AI 工具来改进你的“关于我”部分吗?

我尊重一个知道如何管理时间并且优先考虑其他事情而不是为公司可能让她失望的应用从头开始写论文模型漂移的工程师。

你会雇佣一个拒绝使用计算器、因为他们想不断地向你展示他们知道如何解决相同方程式的工程师吗?

技术和人类共同进化。人类的学习和表达始终是通过技术得到增强的。我恳请主任不要指责候选人试图通过使用 AI 工具规避系统。相反,根据你的标准拒绝他们糟糕的写作,并停止向 AI 检测器提供免费数据。

此外,我都是自己写的。告诉我你对我的写作技能的看法,请在回复 💬 中告诉我!

在创作这篇文章的过程中没有伤害任何聊天机器人。 🤖

如果你喜欢这篇文章,可以查看这篇关于使用 Python 和 NetworkX 进行社交网络分析的 博客

👩🏼‍💻 克里斯汀·伊根 | medium | github | linkedin

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值