NLP知识点学习以及解答笔记

这篇博客当做笔记吧。一次记录自己在学习NLP过程中的一些困惑和解答,如果有不对的地方希望大家能够提出来!

一、BERT知识点

Q:什么是Fine-Tuning?

A:Fine-Tuning即在Pre-training大语料库提取出通用特征之后,再采用自身的数据集来进行微调,使得模型网络能够适应于当前的任务。

Q:为什么bert-as-service直接得到的embeddings的语义相似度都比较打,做不了后续的任务如聚类相关的工作?

A:简单粗暴的个人理解,因为没有进行fine-tuning,得到的句子都是从通用语料上提取到embeddings。在通用语料上,每个字对、词对都在通用语料都有一定几率存在的,所以得到embeddings后计算语义相似度得到的通常都会很大,如果做后续任务如Clustering、通过相似度阈值筛选等任务,由于区分度不大,所以效果也会很差。但是可以评估cos-sine(a, b) > cos-sine(b, c) 这种任务是没问题的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值