NN deep learning neural network
文章平均质量分 58
AI周红伟
ChatGPT、大模型、AI培训和咨询。独角兽人工智能科学家。深度学习发明专利、算法专利拥有者。培训AI和ChatGPT学员超过10万人。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
短视频入门
短视频入门原创 2021-03-14 21:55:38 · 332 阅读 · 0 评论 -
技术服务与产品
技术服务与产品原创 2021-03-07 21:52:25 · 210 阅读 · 0 评论 -
产品包装
1、产品问题。看别的人的产品2、包装产品3、卖出去产品原创 2021-03-06 15:19:53 · 201 阅读 · 0 评论 -
word2vec是如何得到词向量的?
word2vec是如何得到词向量的?最近在做文本的聚类,有老师傅推荐了word2vec,说是可以得到类似[0.792, −0.177, −0.107, 0.109, −0.542, ..…显示全部关注者844被浏览125,647关注问题写回答邀请回答好问题 111 条评论分享登录一下,更多精彩内容等你发现贡献精彩回答,参与评论互动登录查看全部 21 个回答阿北微软程序员,算法专家。公众号:Hello阿北12 人赞同了.原创 2021-03-06 14:46:45 · 803 阅读 · 0 评论 -
小白看Word2Vec的正确打开姿势|全部理解和应用
有个用心的读者最近做了一篇论文,想知道Word2Vec的相关理论和应用方法,作为一个有强迫症的我,去翻查了大量的文献资料,决定从Word2Vec的上下文来温习一下这个NLP的基础以及做相关的知识体系的基本构建,为做Word2Vec的朋友提供一个参考。内容目录:Word2Vec可以做什么用? Word2Vec定义?为什么需要他? Word2Vec是如何工作的? Word2Vec的知识大纲 CBOW模型 Pytorch implementation Skip Gram 模型 Gensim原创 2021-03-06 14:40:44 · 1876 阅读 · 0 评论 -
word2vec是如何得到词向量的?
前言word2vec是如何得到词向量的?这个问题比较大。从头开始讲的话,首先有了文本语料库,你需要对语料库进行预处理,这个处理流程与你的语料库种类以及个人目的有关,比如,如果是英文语料库你可能需要大小写转换检查拼写错误等操作,如果是中文日语语料库你需要增加分词处理。这个过程其他的答案已经梳理过了不再赘述。得到你想要的processed corpus之后,将他们的one-hot向量作为word2vec的输入,通过word2vec训练低维词向量(word embedding)就ok了。不得不说word2ve原创 2021-03-06 14:37:19 · 2007 阅读 · 0 评论 -
word2vec如何得到词向量
word2vec是如何得到词向量的?这个问题比较大。从头开始讲的话,首先有了文本语料库,你需要对语料库进行预处理,这个处理流程与你的语料库种类以及个人目的有关,比如,如果是英文语料库你可能需要大小写转换检查拼写错误等操作,如果是中文日语语料库你需要增加分词处理。这个过程其他的答案已经梳理过了不再赘述。得到你想要的processed corpus之后,将他们的one-hot向量作为word2vec的输入,通过word2vec训练低维词向量(word embedding)就ok了。不得不说word2vec是个很原创 2021-03-06 10:12:48 · 378 阅读 · 0 评论 -
NLP—word2vec词向量简介
NLP处理的数据都是文字,而文字是无法直接被计算机计算的,于是人们想出了使用独热编码的方式来表示单词。<span style="font-size:16px;">浙江 [0,0,0,0,0,0,0,1,0,......0,0,0,0,0,0,0]江苏 [0,0,0,0,1,0,0,0,0,......0,0,0,0,0,0,0]安徽 [0,0,0,1,0,0,0,0,0,......0,0,0,0,0,0,0]天津 [0,0,0,0,0,0,0,0,0,......1,0,0,0,0,原创 2021-03-06 10:05:46 · 322 阅读 · 0 评论 -
秒懂词向量Word2vec的本质
[NLP] 秒懂词向量Word2vec的本质你会在本文看到:提纲挈领地讲解 word2vec 的理论精髓 学会用gensim训练词向量,并寻找相似词你不会在本文看到神经网络训练过程的推导 hierarchical softmax/negative sampling 等 trick 的理论和实现细节3.1. 什么是 Word2vec?在聊 Word2vec 之前,先聊聊 NLP (自然语言处理)。NLP 里面,最细粒度的是 词语,词语组成句子,句子再组成段落、篇章、文档...原创 2021-03-06 10:00:58 · 580 阅读 · 0 评论 -
图神经网络学习一(浅谈embedding)
最近在做图神经网络(GNN)有关的项目,这个图就是数据结构里面的那个图。在学习的过程中接触到了embedding。由于我以前做的比较多的都是卷积神经网络,而embedding常用于自然语言处理(NLP),因此卡在了这个地方,并花了些时间去了解什么是embedding从词说起假如我们有6个词:男人,女人,苹果,西瓜,肠粉,螺蛳粉。如果用one-hot编码来表示,就是六维向量。男人:(1,0,0,0,0,0)女人:(0,1,0,0,0,0)…螺蛳粉:(0,0,0,0,0,1)用one-hot表原创 2021-03-05 22:20:26 · 3392 阅读 · 0 评论 -
深入Bert实战(Pytorch)----fine-Tuning 2
深入Bert实战(Pytorch)----fine-Tuning 2https://www.bilibili.com/video/BV1K5411t7MD?p=5https://www.youtube.com/channel/UCoRX98PLOsaN8PtekB9kWrw/videos深入BERT实战(PyTorch) by ChrisMcCormickAI这是ChrisMcCormickAI在油管bert,8集系列第三篇fine-Tuning的pytorch的讲解的代码,在油管视频下有...原创 2021-02-24 22:35:58 · 1132 阅读 · 0 评论 -
PyTorch环境下对BERT进行Fine-tuning
PyTorch环境下对BERT进行Fine-tuning本文根据Chris McCormick的BERT微调教程进行优化并使其适应于数据集Quora Question Pairs里的判断问题对是否一致的任务。(文字部分大部分为原文的翻译)原文博客地址:https://mccormickml.com/2019/07/22/BERT-fine-tuning/原文colab地址:https://colab.research.google.com/drive/1pTuQhug6Dhl9XalKB0zU原创 2021-02-24 21:43:21 · 1020 阅读 · 0 评论 -
Transformer: Training and fine-tuning(六)
Transformer: Training and fine-tuning(六)语译分西2020-12-09 19:43:4373收藏1分类专栏:文本挖掘,情感分类文章目录1.Fine-tuning in native本地 PyTorch 1.1 Freezing the encoder 冻结编码器 2.在tensorflow上微调 3.Trainer1.Fine-tuning in native本地 PyTorch模型类model clas...原创 2021-02-24 14:18:18 · 1159 阅读 · 0 评论 -
效果不好
from transformers import XLNetTokenizer, XLNetModelimport torchimport numpy as npfrom sklearn.metrics.pairwise import cosine_similarityfrom collections import Counterdef Getw2v(): model_path = '/home/star/pytorch/chinese-xlnet-base' token...原创 2021-02-21 20:20:29 · 190 阅读 · 0 评论 -
调用预训练好的XLnet词向量
调用XLnet模型训练好的词向量做W2V的方法如下:1.pip install pytorch_transformers2.下载预训练模型3.如下Getw2v()代码块获取词向量4. 使用词向量进行其他后续操作,如进行句子相似性判断,做命名实体识别等。以下代码是进行句子相似性判断的示例。from pytorch_transformers import XLNetModel,XLNetConfig,XLNetTokenizerimport torchimport numpy as np...原创 2021-02-21 19:53:37 · 976 阅读 · 0 评论 -
第14章 用BERT实现中文语句分类
BERT以Transformer的Encoder为架构,已MLM为模型,在很多领域取得历史性的的突破。这里以Transformers上基于中文语料库上训练的预训练模型bert-base-chinese为模型,以BertForSequenceClassification为下游任务模型,在一个中文数据集上进行语句分类。具体包括如下内容: 使用BERT的分词库Tokenizer 可视化BERT注意力权重 用BERT预训练模型微调下游任务 训练模型14.1 背景说明本章用到预训练模型库.原创 2021-02-21 19:12:58 · 2699 阅读 · 0 评论 -
HuggingFace-transformers系列的介绍以及在下游任务中的使用
这篇博客主要面向对Bert系列在Pytorch上应用感兴趣的同学,将涵盖的主要内容是:Bert系列有关的论文,Huggingface的实现,以及如何在不同下游任务中使用预训练模型。看过这篇博客,你将了解:Transformers实现的介绍,不同的Tokenizer和Model如何使用。 如何利用HuggingFace的实现自定义你的模型,如果你想利用这个库实现自己的下游任务,而不想过多关注其实现细节的话,那么这篇文章将会成为很好的参考。所需的知识安装Huggface库(需要预先安装pytor原创 2021-02-17 21:07:50 · 2847 阅读 · 1 评论 -
预训练模型transformers综合总结(一)
预训练模型transformers综合总结(一)这是我对transformers库查看了原始文档后,进行的学习总结。第一部分是将如何调用加载本地模型,使用模型,修改模型,保存模型之后还会更新如何使用自定义的数据集训练以及对模型进行微调,感觉这样这个库基本就能玩熟了。# 加载本地模型须知*1.使用transformers库加载预训练模型,99%的时间都是用于模型的下载。为此,我直接从清华大学软件("https://mirrors.tuna.tsinghua.edu.cn/hugging.原创 2021-02-17 11:11:02 · 3475 阅读 · 3 评论 -
BERT解读(论文 + TensorFlow源码)
N个月前BERT就频繁出现在笔者的视野中,只知道是Google出品的神奇好用的pretrain模型,但一听到要用TPU去训练,就有种“拜拜了您嘞”了感觉。不过看到近期大家在谈论的,在研究的,无一不是围绕BERT等一系列的pretrain模型,不禁感叹大势所趋!近期终于有时间静下心来好好研读这篇论文和它的源码,并记录如下,但毕竟BERT已经出了很久了,各路大神都把它研究得很透彻了,所以如有不周详之处,还望指正~文章目录 一. 前言 二. BERT原理 1. 模型结构 2. .原创 2021-02-16 11:02:28 · 522 阅读 · 0 评论 -
Transformer-XL解读(论文 + PyTorch源码)
前言目前在NLP领域中,处理语言建模问题有两种最先进的架构:RNN和Transformer。RNN按照序列顺序逐个学习输入的单词或字符之间的关系,而Transformer则接收一整段序列,然后使用self-attention机制来学习它们之间的依赖关系。这两种架构目前来看都取得了令人瞩目的成就,但它们都局限在捕捉长期依赖性上。为了解决这一问题,CMU联合Google Brain在2019年1月推出的一篇新论文《Transformer-XL:Attentive Language Models beyo原创 2021-02-16 10:57:33 · 1182 阅读 · 0 评论 -
The Illustrated Transformer:中英文(看原文,很多翻译是错误的)
在上一篇文章中(previous post),我们研究了注意力机制 - 一种在现代深度学习模型中无处不在的(ubiquitous)方法。 注意力是一个有助于提高神经机器翻译(neural machine translation)应用程序性能的概念。 在这篇文章中(In this post),我们将介绍The Transformer–一个使用注意力来提高(boost)这些模型训练速度的模型。The Transformers在特定任务中优于(outperforms)Google神经机器翻译模型。 然而,最大的好原创 2021-02-16 09:42:36 · 2494 阅读 · 1 评论 -
图解Transformer(完整版)!
审稿人:Jepson,Datawhale成员,毕业于中国科学院,目前在腾讯从事推荐算法工作。结构总览前言本文翻译自http://jalammar.github.io/illustrated-transformer,是笔者看过的把 Transformer 讲解得最好的文章。这篇文章从输入开始,一步一步演示了数据在 Transformer 中的流动过程。由于看过一些中文翻译的文章,感觉不够好,所以我自己翻译了一个版本,在一些难以直译的地方,我加入了一些原文没有的文字说明,来更好地解释概念。另外,原创 2021-02-15 20:45:51 · 12912 阅读 · 2 评论 -
一文理解 Transformer 的工作原理
目前,自然语言处理中,有三种特征处理器:卷积神经网络、递归神经网络和后起之秀 Transformer。Transformer 风头已经盖过两个前辈,它抛弃了传统的卷积神经网络和递归神经网络,整个网络结构完全是由注意力机制组成。准确地讲,Transformer 仅由自注意力和前馈神经网络组成。那么,Transformer 在自然语言处理中,是如何工作的?且听 Prateek Joshi 为我们娓娓道来。本文最初在Analytics Vidhya网站发表,经原作者Prateek Joshi授权由 In.原创 2021-02-15 20:20:15 · 1400 阅读 · 0 评论 -
这么多年,终于有人讲清楚 Transformer 了!
注意力机制是一种在现代深度学习模型中无处不在的方法,它有助于提高神经机器翻译应用程序性能的概念。在本文中,我们将介绍Transformer这种模型,它可以通过注意力机制来提高训练模型的速度。在特定任务中,Transformer的表现优于Google神经机器翻译模型。但是,最大的好处来自于Transformer如何适用于并行化。实际上,Google Cloud建议使用Transformer作为参考模型来使用其Cloud TPU产品。因此,我们试试将模型分解开吧,看看它是如何工作的。 Atten...原创 2021-02-15 20:08:29 · 1015 阅读 · 2 评论 -
Transformer-XL解读(论文 + PyTorch源码)
目前在NLP领域中,处理语言建模问题有两种最先进的架构:RNN和Transformer。RNN按照序列顺序逐个学习输入的单词或字符之间的关系,而Transformer则接收一整段序列,然后使用self-attention机制来学习它们之间的依赖关系。这两种架构目前来看都取得了令人瞩目的成就,但它们都局限在捕捉长期依赖性上。为了解决这一问题,CMU联合Google Brain在2019年1月推出的一篇新论文《Transformer-XL:Attentive Language Models beyond a原创 2021-02-15 19:58:10 · 756 阅读 · 0 评论 -
Transformer的PyTorch实现
文本主要介绍一下如何使用 PyTorch 复现 Transformer,实现简单的机器翻译任务。请先花上 15 分钟阅读我的这篇文章Transformer详解,再来看文本,方能达到醍醐灌顶,事半功倍的效果数据预处理这里我并没有用什么大型的数据集,而是手动输入了两对德语→英语的句子,还有每个字的索引也是我手动硬编码上去的,主要是为了降低代码阅读难度,我希望读者能更关注模型实现的部分# S: Symbol that shows starting of decoding input# E: Sy.原创 2021-02-15 10:19:11 · 677 阅读 · 0 评论 -
Transformer 详解
Transformer 是谷歌大脑在 2017 年底发表的论文attention is all you need中所提出的 seq2seq 模型。现在已经取得了大范围的应用和扩展,而 BERT 就是从 Transformer 中衍生出来的预训练语言模型这篇文章分为以下几个部分Transformer 直观认识 Positional Encoding Self Attention Mechanism 残差连接和 Layer Normalization Transformer Encoder ..原创 2021-02-15 09:04:26 · 2776 阅读 · 1 评论 -
全面拥抱Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较
放弃幻想,全面拥抱Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较在辞旧迎新的时刻,大家都在忙着回顾过去一年的成绩(或者在灶台前含泪数锅),并对2019做着规划,当然也有不少朋友执行力和工作效率比较高,直接把2018年初制定的计划拷贝一下,就能在3秒钟内完成2019年计划的制定,在此表示祝贺。2018年从经济角度讲,对于所有人可能都是比较难过的一年,而对于自然语言处理领域来说,2018年无疑是个收获颇丰的年头,而诸多技术进展如果只能选择一项来讲的话,那么当之无愧的应该就是B原创 2021-02-14 10:19:00 · 2292 阅读 · 0 评论 -
从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
预训练在自然语言处理的发展: 从Word Embedding到BERT模型张俊林AINLP2018-11-09以下是新浪微博机器学习部AI Lab的资深算法专家张俊林博士11月7日关于BERT的PPT分享,已取得授权转载到这里。节选微博上两段相关的信息:@张俊林say: BERT这种具备NLP里程碑意义的模型你要是不搞明白就别说自己是搞自然语言处理的了@微博机器学习大家期待的PPT来啦《 预训练在自然语言处理的发展:从Word Embedding到BERT模型 》。在...原创 2021-02-14 10:07:08 · 403 阅读 · 0 评论 -
孙正义看未来30年:投资趋势,永远不会错
对于今后30年来讲,我认为现在是个很关键的时刻,尤其是在各位的人生当中。而且现在是一整个概念的转变,我们要包容这个概念的转变。我想先给大家看两张照片。这是美国纽约的第五大道,左边那张是1900年的,你看到一辆汽车,和九十九匹马车。而右边的,同样的地方,13年后,你看到的是九十九辆车,和一匹马车。发现了吗,仅仅过了13年,街道上,车辆取代了马匹。这就是一个概念的转变,而现在我们面临的时期,就是一个伟大的概念转变时期。这种伟大的概念转变,不是每年都发生的。而是一百年,少有的百年才会发生的转变。那原创 2021-01-24 10:37:34 · 443 阅读 · 1 评论 -
tensorflow之过拟合问题实战
tensorflow之过拟合问题实战1.构建数据集我们使用的数据集样本特性向量长度为 2,标签为 0 或 1,分别代表了 2 种类别。借助于 scikit-learn 库中提供的 make_moons 工具我们可以生成任意多数据的训练集。import matplotlib.pyplot as plt# 导入数据集生成工具import numpy as npimport seaborn as snsfrom sklearn.datasets import make_moonsfrom原创 2020-11-01 18:56:29 · 603 阅读 · 0 评论 -
重磅更新!YoloV4最新论文与源码!权重!结构!翻译!
今年初 YOLO 之父Joseph Redmon宣布推出CV界,引起轩然大波,大家纷纷猜测YOLO是否不会再出v4版,退出历史舞台。今天,YOLOv4重磅发布,作者为俄罗斯开发者 Alexey Bochkovskiy 和两位中国台湾开发者 Chien-Yao Wang、Hong-Yuan Mark Liao。了解:https://mp.weixin.qq.com/s/tjz9Kz7Of8sCnXg0qxNGwQ献上原论文和源码:原论文:https://pan.baidu.com/s/1_J17p原创 2020-05-15 10:31:10 · 1104 阅读 · 0 评论 -
LSTM 为何如此有效?这五个秘密是你要知道的
长短期记忆网络(LSTM),作为一种改进之后的循环神经网络,不仅能够解决 RNN无法处理长距离的依赖的问题,还能够解决神经网络中常见的梯度爆炸或梯度消失等问题,在处理序列数据方面非常有效。有效背后的根本原因有哪些?本文结合简单的案例,带大家了解关于 LSTM 的五个秘密,也解释了 LSTM如此有效的关键所在。秘密一:发明LSTM是因为RNN 发生严重的内存泄漏之前,我们介绍了递归...原创 2020-04-05 09:10:46 · 480 阅读 · 0 评论 -
自然语言模型算法太杂乱?国产统一 AI 开源框架来了!
2019年8月,基于深度学习的语音和自然语言理解模型训练平台DELTA正式开源。一经开源,DELTA登上GitHub热榜,获得 1k+的Star数,受到深度学习框架Keras的作者François Chollet的关注。DELTA可助力AI开发者创建、部署自然语言处理和语音模型,构建高效的解决方案,让NLP应用更好落地。在滴滴里,NLP和语音技术有重要的应用:通过智能客服系统来辅助人工客服,...原创 2020-03-31 20:52:10 · 492 阅读 · 0 评论 -
机器学习中有监督学习——回归
机器学习中有监督学习——回归一、引言 本材料参考Andrew Ng大神的机器学习课程 http://cs229.stanford.edu,以及斯坦福无监督学习UFLDL tutorial http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial 机器学习转载 2016-05-06 21:51:21 · 2702 阅读 · 0 评论 -
专访格灵深瞳CTO赵勇:为" 计算机视觉" 赋予智慧的光芒
专访格灵深瞳CTO赵勇:为" 计算机视觉" 赋予智慧的光芒发表于2015-04-02 07:25| 15131次阅读| 来源优快云| 13 条评论| 作者长生果CTO俱乐部CTO赵勇计算机视觉管理实践格灵深瞳 摘要:据说加入从事计算机视觉识别的格灵深瞳团队比进哈佛大学还难;投资人对其未来市场估值达几千亿……近期CTO俱乐部专访了格灵深瞳CTO赵勇,他曾供职于Googl转载 2016-03-19 15:55:07 · 1192 阅读 · 0 评论 -
放弃已有的
我们要放弃过去的, 开始新的, 过去的都是错误的,不是技术错了。 而是时间变了,一切都变了。脑子里的东西也要改变。原创 2015-02-15 08:09:27 · 606 阅读 · 0 评论 -
A Deep Dive into Recurrent Neural Nets
A Deep Dive into Recurrent Neural Nets11 January 2015Last time, we talked about the traditional feed-forward neural net and concepts that form the basis of deep learning. These ideas are extre转载 2015-01-29 21:35:10 · 1410 阅读 · 0 评论
分享