
NLP
会发paper的学渣
Computer knows how to connect zero with one,Mathmatic get how to skip from one to infinity
展开
-
关于gpt2生成的训练验证
gpt2生成的训练验证的感想原创 2023-02-21 19:33:29 · 330 阅读 · 0 评论 -
基于tensorflow keras的simcse训练以及bert相关知识
基于bert的下游任务训练实现样例:simcse原创 2023-02-14 16:32:08 · 543 阅读 · 0 评论 -
基于transformer和相关预训练模型的任务调优
基于transformer和相关预训练模型的任务调优原创 2023-01-31 19:12:06 · 581 阅读 · 0 评论 -
tf.keras.layers.TextVectorization层介绍及自定义分词器
TextVectorization的相关介绍:普通字符串如何进行快速数字化转换原创 2023-01-05 19:12:00 · 906 阅读 · 0 评论 -
tf-idf的原理及计算
tf-idf的计算方式,可以用于用户画像、物品画像的构建原创 2022-12-26 13:51:33 · 433 阅读 · 0 评论 -
零样本学习模型介绍
零样本学习模型介绍原创 2022-11-21 18:28:42 · 325 阅读 · 0 评论 -
语义纠错模型总结
语义纠错模型原创 2022-11-21 17:28:24 · 405 阅读 · 0 评论 -
文本相似性模型总结
文本相似性模型总结原创 2022-11-21 17:24:03 · 1232 阅读 · 0 评论 -
情感分类模型总结体验
情感分类模型原创 2022-11-21 17:19:20 · 458 阅读 · 0 评论 -
simcse的lose函数理解
https://github.com/bojone/SimCSE源代码如下:def simcse_loss(y_true, y_pred): """用于SimCSE训练的loss """ # 构造标签 idxs = K.arange(0, K.shape(y_pred)[0]) idxs_1 = idxs[None, :] idxs_2 = (idxs + 1 - idxs % 2 * 2)[:, None] y_true = K.equal原创 2022-03-01 18:23:05 · 1793 阅读 · 0 评论 -
相似句子计算工业级方法:对比学习SimCSE原理透析
最近看了一篇最新的Sentence Embedding论文,今年4月份的,丹琦大神发表的《Simple Contrastive Learning of Sentence Embeddings》, 简称就是SimCSE,直译过来就是 基于简单对比学习句子嵌入。和没有对比学习的Bert相比,个人认为最大的区别就是:考虑到了拉大当前样本和不相关样本的距离,uniformity。 而原始的Bert仅仅考虑了相似样本越相似越好,也就是Alignment。整篇文章的关键词有两个,simple 和 Contrast原创 2022-03-02 18:51:45 · 546 阅读 · 0 评论 -
理解transformer
1、transformer整体流程:2、dot-product attention以及分别对应的在encoding和decoding中对应的内容:对应的公式为:1、 对于encoding部分来说,Q、K、V都是输入的序列向量矩阵,比如,输入 我爱你,则三个对应的都是对每一个字进行enbedding后的序列矩阵A;而对应就是value值对应的权重,可以称之为输入词的重要性权重2、对于decoding来说,第一步时,设置一个默认开始内容,后面内容(假设最长长度用n全部遮罩处理后最为o原创 2022-01-28 14:25:43 · 1444 阅读 · 0 评论 -
textcnn模型实践
对应的tensorflow版本:2.5.0+textcnn模型如下:import tensorflow as tfclass ConvMaxPooling1d(tf.keras.layers.Layer): def __init__(self, filters, kernel): super(ConvMaxPooling1d, self).__init__() self.kernel_size = kernel #(batch_size原创 2022-01-25 11:29:20 · 1802 阅读 · 0 评论 -
模型构建的三种方式总结
方法1:序列化构建:model = keras.Sequential([ keras.layers.Flatten(input_shape=(28,28)), keras.layers.Dense(128,activation=tf.nn.relu), keras.layers.Dense(10,activation=tf.nn.softmax) ])方法2:基于tf.keras.Modelimport tensorflow as tf...原创 2022-01-17 17:42:17 · 2659 阅读 · 0 评论 -
tensorflow2.x加载预训练模型
tensorflow的预训练模型网址为:https://hub.tensorflow.google.cn已经下载好的预训练模型:bert_zh_L-12_H-768_A-12的v4版本(链接:https://pan.baidu.com/s/1Ld_mvXf8Es4lwCaW1PgKsQ提取码:3xba)和bert_zh_preprocess的v3版本(链接:https://pan.baidu.com/s/1jseOQKlVj88-Hpak2PXsCw提取码:s9eq)模型离线加载:im..原创 2022-01-06 19:03:24 · 1245 阅读 · 3 评论 -
MaxPooling1D和globalMaxPooling1D的区别
1.GlobalMaxPooling1D:在steps维度(也就是第二维)对整个数据求最大值。比如说输入数据维度是[10, 4, 10],那么进过全局池化后,输出数据的维度则变成[10, 10]。是对步长维度的向量求最大值。故会产生维度压缩2.MaxPooling1D:也是在steps维度(也就是第二维)求最大值。但是限制每一步的池化的大小。 比如,输入数据维度是[10, 4, 10],池化层大小pooling_size=2,步长stride=1,那么经过MaxPooling(pooling_原创 2022-01-06 13:45:49 · 2080 阅读 · 0 评论 -
卷积神经网络的相关计算
input维度为(batch,step,embedding_size)参数配置:strides,卷积核每次移动的距离,默认为1kernel_size为卷积核宽度filters:输出空间维度则最后返回的数据维度为:原创 2022-01-05 19:39:08 · 1860 阅读 · 0 评论 -
中文NLP开源数据集 千言
千言(LUGE)| 全面的中文开源数据集合进一步的了解后续跟进原创 2021-12-31 09:29:22 · 778 阅读 · 0 评论 -
BPE分词方法总结
BPE方法可以认为是对一个1到n的ngram分词方式使用剪枝法(将有先后依赖,且词频重合度较高的词合并)比如,输入的句子中,abc:50,abcd:49,那么就可以在49/50>Threshold时,直接删除abc这个词。这就是剪枝。可以用来减少词集合...原创 2021-12-29 19:27:03 · 820 阅读 · 0 评论 -
预训练模型参考网站
TensorFlow HubHugging Face – The AI community building the future.tensorflow 对应的git hub:GitHub - tensorflow/hub: A library for transfer learning by reusing parts of TensorFlow models.有遗漏的欢迎留言补充原创 2021-12-29 13:48:47 · 584 阅读 · 0 评论 -
tf.keras.layers.Conv1D 学习
CNN tensorflow原创 2021-12-23 16:58:53 · 3070 阅读 · 1 评论 -
“No training configuration found in save file:the model was *not* compiled. Compile it manually”解决方案
模型加载问题原创 2021-12-20 17:12:38 · 2820 阅读 · 0 评论 -
tensorflow2.x中字符串wordenbedding的方式
字符串如何embedding原创 2021-12-16 14:00:07 · 1678 阅读 · 0 评论 -
tf.keras.layers 和 tf.nn.layers的对比
tf.keras.layers 和 tf.nn.layers的对比原创 2021-12-14 18:21:04 · 1041 阅读 · 0 评论 -
新闻文本抓取
新闻递归抓取网页url和内容原创 2021-12-13 16:37:44 · 431 阅读 · 0 评论 -
chromedriver 各个版本下载
动态 爬虫原创 2021-12-13 11:25:51 · 3162 阅读 · 0 评论 -
模型保存的格式.h5和.pb对比
模型保存的格式.h5和.pb对比原创 2021-12-10 11:03:49 · 6340 阅读 · 0 评论 -
离线摘要生成/关键词、标签生成
离线摘要生成原创 2021-12-09 14:45:07 · 533 阅读 · 0 评论 -
NLP预训练模型加载工具:Huggingface Transformers
NLP对应的算法包括:分词 词向量 句子向量 命名实体识别 意图识别预训练的模型内容查看:Models - Hugging Facetransformers工具的说明文档参考:???? Transformers著名网络博主:huggingface-Transformer学习笔记1 - 知乎Huggingface Transformers库学习笔记(一):入门(Get started)_u011426236的博客-优快云博客_huggingface transformers入门.原创 2021-12-07 17:58:56 · 551 阅读 · 0 评论