- 博客(6)
- 资源 (1)
- 收藏
- 关注

原创 【笔记】Neural Architectures for Named Entity Recognition
Neural Architectures for Named Entity Recognition这是本人读论文的笔记,其余论文部分在网上都有,本人仅对自己未知的知识进行记录!全文翻译:https://blog.youkuaiyun.com/qq_28385535/article/details/85061404近/规约解析( shift-reduce)Shift Reduce解析器尝试以类似......
2020-01-13 17:34:15
625
原创 【Machine Learning】性能度量与评估方法
机器学习中的性能度量一个机器学习模型需要一些性能度量指标来判断它的好坏,了解各种评估的方法优点和缺点,在实际应用中选择正确的评估方法是十分重要的。1.准确率(Accuracy)准确率(Accuracy)是最常见也是最基本的评估标准,它表示被分对的样本数在所有样本数中的占比,它准确的公式定义是:ACC=TP+TNP+N ACC = \frac{TP+TN}{P+N}ACC=P+NTP+TN...
2020-02-03 14:19:37
446
原创 【笔记】Distributed Representations of Words and Phrases and their Compositionality
Abstract最近引入的连续Skip-gram模型是学习高质量distributed vector representations(分布向量表示)的有效方法,distributed vector representations可以捕获大量精确的句法和语义关系。在本文中,我们提出了几个扩展,提高了向量的质量和训练速度。通过对frequent words进行二次抽样,我们获得了显着的加速,同时还...
2020-01-19 18:42:50
479
原创 【笔记】Attention Is All You Need
Introduction本文是谷歌发表的文章,针对nlp里的机器翻译问题,提出了一种被称为”Transformer”的网络结构,基于注意力机制。文章提出,以往nlp里大量使用RNN结构和encoder-decoder结构,RNN及其衍生网络的缺点就是慢,问题在于前后隐藏状态的依赖性,无法实现并行,而文章提出的”Transformer”完全摒弃了递归结构,依赖注意力机制,挖掘输入和输出之间的关系,...
2020-01-16 16:48:19
279
原创 【笔记】BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
预备知识:Transformer :https://zhuanlan.zhihu.com/p/98650532?utm_source=wechat_session&utm_medium=social&utm_oi=849546926243340288attentionisallyourneed:https://arxiv.org/pdf/1706.03762.pdf...
2020-01-15 18:13:42
246
原创 [Python基础] Logging模块的使用
tf.logging模块tf.logging.set_verbosity(logging.INFO)在tensorflow中函数可以直接log打印tensorflow使用5个不同级别的日志消息。按照上升的顺序,他们是debug,info,warn,error和fatal。在任何级别配置日志记录时,tf将输出与该级别相对用的所有日志信息。在跟踪模型训练时,将级别调整为info,将提供适合操作...
2020-01-15 10:03:06
243
BP神经网络基本原理教程
2018-07-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人