一切都会好的,我一直相信!
—— 25.4.2
NLP面经1:
Transformer模型中Q、K、V参数
【NLP 面经 1.Transformer模型Q、K、V参数的作用】-优快云博客
NLP面经2:
① 情感分析问题中,使用预训练模型微调后,对具有修辞文本的情感判断准确度较低问题改进
② 文本分类任务中,处理长文本分类准确率下降且训练时间增加问题改进
③ 命名实体识别(NER)中,面对跨领域文本数据模型准确率降低且泛化能力较差问题改进
④ 文本生成任务中,生成文本逻辑不连贯与缺乏多样性问题改进
⑤ 代码题:只出现一次的数字
NLP面经3:
① Transformer中的多头注意力机制及Transformer与RNN对比的优势
② 文本分类任务中,使用支持向量机SVM模型,处理高维稀疏文本效果不佳且训练时间很长分类效果不佳问题改进
③ 命名实体识别(NER)中,使用RNN模型,对嵌套实体和长文本中的实体识别效果不佳问题改进
④ 代码题:字符串反转
NLP面经4:
① 情感分析任务中,使用卷积神经网络CNN模型,模型在测试集上准确率较低,尤其对长文本的情感分析效果较差问题改进
② 文本生成任务中,使用循环神经网络模型RNN,生成文本效果较差问题改进
③ 文本分类任务中,使用逻辑回归模型,在处理多标签分类及类别不平衡数据时效果较差问题改进
④ 代码题:数组两数求和
NLP面经5:
① 命名实体识别(NER)任务中,使用基于CRF条件随机场的模型,在识别嵌套实体和重叠实体时效果不佳及长文本时性能下降问题改进
② 机器阅读理解任务中,预训练语言模型对复杂推理和多眺阅读问题回答准确率较低,且处理特定领域文本泛化能力较差改进
③ 文本摘要任务中,Seq2Seq模型结合注意力机制生成的摘要存在问题改进
④ 代码题:单词拼接
NLP面经6:
① 机器翻译任务中,使用基于 Transformer 架构的模型。在翻译一些具有丰富文化内涵、习语或隐喻的句子时,翻译质量较差,并且在处理生僻词汇时也经常出现错误问题改进
② 文本摘要任务中,使用基于Transformer 架构的生成式模型,生成的摘要出现信息重点把握不准、关键信息遗漏,并且在生成较长文本的摘要时,结构不清晰、逻辑连贯性差的问题改进。
③ 文本分类任务中,使用基于Transformer架构,配置字典中各参数对模型性能的影响
④ 代码题:单词接龙