一、推荐信
上周帮朋友写申请国外大学 offer的推荐信,那必须用 GPT 了,地道和专业的Letter翻译好发过去后,朋友却来了一句,我来调整下用词、语法和表达顺序。
我问她为什么?我(GPT)写的不够好吗?
她说,你一直在国内工作,而且都是本土企业,一下子写这么地道专业的推荐信出来,还有很多高级用词,审核老师一看就知道是 AI 写的,这样就不够真实可靠了,影响可信度。
我说老师这么厉害?
她说老师现在审核论文都要先判断是不是AI 写的,也有一些工具在辅助审核,所以你写的东西,大概率会被判断是 AI 的。
所以说,我写的推荐信最好土味儿一点比较好,Chinglish效果可能更好,因为更真实。
有时候真实比完美更重要,更有效果。
二、汇报材料
无独有偶,前几天在群里看到,有金融行业的同事在整理汇报材料,向群里其他人咨询一些经验。
我们说他,这种事情 GPT 不就可以搞定了。
他说 GPT 是帮忙搞定了,但是两个问题:
一是满满地 AI 味道,没有了我个人的风格。
这有点像看一个人写的东西多了,有时候不用看名字,一看内容就知道是谁的风格,其实就是这么个意思。
二是汇报有很多人,有些同事工作有交叉的地方,AI 生成出来的大差不差,所以几个人重合率很高,就坐实了 AI 生成。
所以他现在不得不花大量的时间调整 AI 输出的内容,转化成他自己想表的逻辑,只有这样才不会被领导骂:都是AI 生成的,要你何用。
三、知识库
最近我自己也在整理公司里的一些文档和知识,准备做知识库来训练内部的大模型。
使用过程中,我就明显发现有很多隐性知识障碍,在公司里或团队里,甚至领域内,大家都默认或约定俗成的东西,比如很多系数设定范围等,默认取值条件等,不是说没有标准,但是是要靠经验结合现场实际情况做判断,甚至是现场调了之后才能给出的。
做过参数调优的朋友肯定知道,I don't why, but it works.
但是文档中就没法很详细的介绍,但这些又是很重要的前置条件,对于后续严密的逻辑推导至关重要。
但是大模型在不知道的情况下,就没法弄,推导个两三步,逻辑就错了。
我想了下,好像目前也没什么太好的办法,只能是我们自己再把这些隐性知识尽量显性化一些,多一些实际案例做进去,让 AI 尽量理解准确。
甚至在未来给出推导的方向和路径就好了,中间的关键过程,还是要靠人类专家来判断和决策。
有多少 AI,就得有多少人工。我想这也是 AI 在专业领域大规模推广应用的主要问题。