- 博客(6)
- 收藏
- 关注
原创 NLP面试知识汇总
NLP面试知识汇总NLP面试知识汇总1. ngram模型2. word2vecSkip-gramCBOWword2vec训练trick知识补充 *霍夫曼树*hierarchical softmaxhierarchical \ softmaxhierarchical softmax 分层softmaxnegative samplingnegative \ samplingnegative sampling 负采样预训练模型问题BERT的输入和输出分别是什么?不考虑多头的
2021-09-17 21:20:51
1224
原创 ID3、C4.5、CART决策树
ID3、C4.5、CART决策树预备知识信息熵功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入 预备知识 信息熵 1.什么是信息熵? 信息熵可描述为:一件事件发生给我们带来的平均信息量。 数学上描述为:事件发生所带来的信息量的期望,
2021-09-01 00:05:10
355
原创 合合nlp 实习笔试
1.逻辑回归,损失函数,参数偏导推导 2.最大似然,最大后验,贝叶斯 3.HMM、CRF 4.BP推导 5.Transformer 、 self-Attention 6.无序数组不排序估计中位数(算法思想) coding: 1.字符串正则匹配(leetcode 10) 2.已排序数组(有重复),k在数组最后位置,无返1 3.编辑距离(leetcode 72) ...
2021-02-22 12:25:53
188
原创 货拉拉NLP算法实习生面经
货拉拉技术1面: 简历细节 网络评论细粒度抽取+百度千言数据实体消歧比赛+小论文 模型调参怎么调的 学习率怎么起作用 LSTM,GRU门机制 门机制是否真的能防止梯度消失或梯度爆炸 CNN模型介绍 coding:快排 技术2面(粗面) 开始确认了入职时间和实习期时间 简历细节(项目基本上全介绍了) 又确认了一遍入职时间和实习时间 未coding ...
2021-02-19 22:00:51
998
1
原创 网易nlp实习凉经
网易智企NLP实习二面凉经 一面:技术面(粗) 1.简历细节 2.如何更加深入的理解模型 3.coding:数组nums,第k大的数 二面:技术面 (细) 1.网络评论细粒度观点抽取细节 2.简历细节 2.word2vec CBOW 最后softmax两种优化:霍夫曼树/负采样(细节) 3.glove 与 word2vec 差别 4.lstm门机制,采用sigmoid的原因,训练慢如何优化->换gru(无知了,不知道对不对) 5.bert缺点及针对缺点提出的模型(不了解,拉胯了,自己挖坑) 6.cod
2021-02-05 19:07:08
397
原创 中文酒店语料分类:基于TensorFlow的LSTM
中文酒店语料分类:基于TensorFlow的LSTM 中文酒店评论文本分类 数据集来源于谭松柏老师的酒店评论数据集 数据准备 导入各种需要的包和设置工具 from tensorflow import keras from tensorflow.keras.preprocessing.text import Tokenizer from tensorflow.keras.preprocessing.sequence import pad_sequences from tensorflow.keras.ut
2020-11-13 23:15:44
1215
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人