
深度学习
文章平均质量分 64
yunpeng.zhou
纸上得来终觉浅,绝知此事要躬身。
展开
-
Hugging Face 中文预训练模型使用介绍及情感分析项目实战
HuggingFace Transformers库中文预训练语言模型使用介绍,包含pipeline的简单使用,不同Model架构的输出,最后评论数据情感分析项目实践。原创 2022-05-29 22:36:31 · 8164 阅读 · 9 评论 -
基于word2vec+TextCNN 实现中文文本分类
基于word2vec+TextCNN 作文本分类; 文学、体育、女性、校园文本分类数据集,利用jieba库进行分词、去停用词、使用卷积神经网络进行文本分类。模型参数配置# 模原创 2022-05-25 23:00:53 · 1918 阅读 · 6 评论 -
基于pytorch的dcgan代码实现,进行简易图像数据生成
使用numpy创建简易图像数据,使用dcgan生成对抗网络进行图像的自动生成原创 2022-05-12 19:41:43 · 1662 阅读 · 0 评论 -
基于ResNet残差卷积网络进行验证码图片识别
使用ResNet卷积网络识别验证码图片备注:验证码训练集可以在有验证码网站获取(但前期标注比较恶心),这里使用captcha自动进行验证码图像生成,验证码为4位数字,范围0~4(范围较小方便训练),使用pillow和opencv两种方法进行了图像预处理,使用torch+cpu训练。网络架构图0.1 整体结构0.2 残差单元结构0.3 部分识别结果展示导包from captcha.image import ImageCaptchaimport matplotlib.pyplot原创 2022-04-24 09:41:18 · 1373 阅读 · 0 评论 -
使用循环神经网络训练语言模型(从简单起手、歌词生成器,爬虫+GRU循环网络)
使用循环神经网络训练语言模型(从简单起手、汪峰老师歌词生成器,爬虫+GRU循环网络)第一部分:歌词爬取(本次主要是训练语言模型,百度随便搜的歌词下载网站,编写爬虫脚本自动下载歌词)第二部分:网络构建,歌词生成测试(使用GRU门控循环网络,进行语言模型训练,根据预先给定词,自动向后编写歌词)结果展示: 输入 “生命就” 3个字,自动生成后续歌词: “生命就像找 让我们彼此坦诚 现在或永不 感觉越来越虚无 就像我越来越硬可与你无关 我发现了一些迹象 让我疼痛”第一部分:爬虫impo原创 2022-04-13 22:23:38 · 1463 阅读 · 0 评论 -
FashionMNIST_CNN with pytorch (accuracy: 97.58%/90.1%)
FashionMNIST_CNN with pytorch (accuracy: 97.58%/90.1%)接上篇,想进行各种CCN经典网络的效果对比,因为个人电脑配置原因失败,不得以科学上网,注册了kaggle进行训练,整体训练分两部分:1 创建CNN网络训练(网络简单,大概后台运行了5h);2 使用后台运行产生的模型,进行测试集预测结果如下:#1 ----------- first/第一步:kaggle后台训练模型 -------------------------import torc原创 2022-03-25 10:13:57 · 3100 阅读 · 0 评论 -
LSTM时序数据预测实践(实时股票数据)
使用pandas_datareader库获取实时股票数据,利用LSTM进行股票预测原创 2022-03-16 18:16:47 · 3047 阅读 · 1 评论 -
验证LSTM内部实现流程,加深对LSTM的印象
理解LSTM计算的原理,并手动验证内部计算流程原创 2022-03-14 11:38:32 · 1003 阅读 · 0 评论 -
RNN输入数据加工问题与循环流程分析(torch)
简单理解RNN原理计算,和RNN特征输入问题原创 2022-03-10 17:03:47 · 2346 阅读 · 0 评论 -
手工简单复现经典CNN网络测试(LeNet5、AlexNet、VGG16、GoogLeNet、ResNe)
手工简单复现经典CNN网络测试**前言:**突然想把看到的机器视觉的经典网络(LeNet5、AlexNet、VGG16、GoogLeNet、ResNet)手工复现一遍,运气好的可以看到效果时逐渐趋于完美的,但现实是残酷的,这里把遇到的问题和部分结果记录以下(真心认为解决问题的过程就是成长的过程)1、导入相关包import torchvisionfrom torchvision.datasets import FashionMNISTimport torchvision.transforms as原创 2022-03-01 09:48:45 · 1375 阅读 · 4 评论 -
手动创建词向量训练神经网络
一直不太明白词向量怎样产生,搜索生成原理后,自己分别使用word2vector和自建单隐层神经网络进行训练(数据集优美,量少,不用太在意训练效果,主要记录流程)先介绍数据处理与网络架构:1.训练数据集:import torchimport torch.nn as nnfrom torch.nn import CrossEntropyLossfrom torch.optim import SGDimport jiebafrom gensim import corporaimport原创 2022-02-13 20:00:34 · 712 阅读 · 0 评论 -
手写简单的BP(反向传播)算法,实现预测
手写简单的BP(反向传播)算法(一个隐藏层),网络结构如下:输入层shape:(1,2)w1.shape:(2,4)w2.shape:(4,4)具体代码实现及数据预测结果:import numpy as npimport matplotlib.pyplot as plt# 训练集特征2维X = np.array([[2,1],[-1,1],[-1,-1],[1,-1]])# 类别标签y = np.array([1,2,3,4])# 初始化权重矩阵np.random.seed(原创 2021-10-15 15:37:48 · 932 阅读 · 0 评论