- 博客(11)
- 资源 (3)
- 收藏
- 关注
原创 Ubuntu 18.04.1安装docker
The repository 'cdrom://Ubuntu 20.04.1 LTS _Focal Fossa_ - Release amd65 (20200731) fo cal Release' does not have a Release file. docker安装
2022-11-07 10:12:04
397
原创 pytorch下使用BiLSTM_CRF完成命名实体识别(BiLSTM_CRF的NER任务)
理论部分 有空再写..全部实现实践代码 环境: pytorch1.3.1; sklearn;tqdm 训练语料:链接:https://pan.baidu.com/s/1Pa42E2q9fZ2zXLJ7vLvx8g 提取码:o2rg--来自百度网盘超级会员V1的分享 项目结构:#!/...
2021-11-19 22:12:34
5496
12
原创 英文词向量:使用pytorch实现CBOW
本文资源:链接:https://pan.baidu.com/s/1my30wyqOk_WJD0jjM7u4TQ提取码:xxe0 --来自百度网盘超级会员V1的分享中文都讲完了,英文没有什么好说的,相关的理论知识可以看之前的博客中文词向量:word2vec之skip-gram实现(不使用框架实现词向量模型)_Richard_Kim的博客-优快云博客中文词向量:使用pytorch实现CBOW训练_Richard_Kim的博客-优快云博...
2021-11-08 15:15:35
2206
原创 中文词向量:使用pytorch实现CBOW
整个项目和使用说明地址:链接:https://pan.baidu.com/s/1my30wyqOk_WJD0jjM7u4TQ提取码:xxe0关于词向量的理论基础和基础模型都看我之前的文章。里面带有论文和其他博客链接。可以系统学习关于词向量的知识。之前已经使用numpy手动实现skip-gram,现在使用pytorch框架实现CBOW这是pytorch官网的C...
2021-11-08 15:09:59
5055
3
原创 英文词向量:word2vec之skip-gram实现(不使用框架实现词向量模型)
代码中使用的语料:链接:https://pan.baidu.com/s/1nu_TqPtstB8brL2jJ-WtAg提取码:nwdo之前讲了中文的词向量如何训练,这里说说英文的,英语比中文简单多了,也不会有乱码问题,所以这里直接贴出代码。怎么跑起来可以看之前的文章 #!/usr/bin/endimension python# -#-coding:utf-8 -*-# author:by ucas iie 魏兴源# datetim...
2021-10-27 15:17:58
671
原创 中文词向量:word2vec之skip-gram实现(不使用框架实现词向量模型)
介绍在自然语言处理任务中,首先需要考虑词如何在计算机中表示。通常,有两种表示方式:one-hot representation和distribution representation。 1.离散表示(one-hot representation) 2.分布式表示(distribution representation)两者区别和关于NLP的基础可以参考其他博客和论文 论文: ...
2021-10-27 15:06:40
2436
7
原创 在pytorch中使用DNN实现猫狗分类
#!/usr/bin/env python# -#-coding:utf-8 -*-# author:魏兴源# datetime:2021/10/20 20:14:13# software:PyCharm"""模型1:Pytorch CNN 实现流程 1.图片数据处理,加载数据集 2.使得数据集可迭代(每次读取一个Batch) 3.创建模型类 4.初始化模型类 5.初始化损失类 6.训练模型"""# 1.加载库import os.
2021-10-20 23:46:32
2039
原创 在pytorch中使用ResNet50实现猫狗分类
前面的自己设计的模型出现了过拟合现象,训练集准确度高达95%,但是测试集准确度惨不忍睹63%左右。 使用交叉熵作为loss,模型采用resnet50,使用预训练模型,我在调试的过程中,使用预训练模型可以快速得到收敛好的模型,使用预训练模型将pretrained设置为True即可。更改最后一层的全连接,将类别设置为2,然后将模型放到DEVICE。优化器选用Adam。代码有详细的注释就不说过程了。没有出现过拟合现象,受限于我的机器就没有设置更低的学习率,跑的结果还行。...
2021-10-20 23:45:05
6097
1
原创 在pytorch上使用CNN实现猫狗分类
CNN模型是著名用于图像领域的模型。步骤如下所示:1.图片数据处理,加载数据集BATCH_SIZE = 16 # 每批处理的数据DEVICE = torch.device('cuda' if torch.cuda.is_available() else 'cpu')EPOCHS = 15 # 训练数据集的轮次LEARNING_RATE = 1e-4 # 学习率优化器使用SGD:optimizer=optim.SGD(cnn_model.parameters(),lr=L...
2021-10-20 23:29:12
1943
原创 在pytorch上使用LSTM实现猫狗分类
与RNN一样,输入也是三个维度,由于之前RNN先使用了CNN进行过滤,这次LSTM模型不使用CNN过滤,直接把所有向量放入训练。如下图,没有和RNN一样使用三层卷积层。定义超参数BATCH_SIZE = 32 # 每批处理的数据DEVICE = torch.device('cuda' if torch.cuda.is_available() else 'cpu')EPOCHS = 15 # 训练数据集的轮次1. 最后一个epoch(第15个epoch)时候的训练集的损失率...
2021-10-20 23:22:58
3345
2
原创 在pytorch平台上使用RNN进行猫狗分类
和CNN不同的是,RNN用于前后具有相关联性质的序列的。所以这里我们只能把每幅图像横向剪切,每一行当成一列。如下图所示:每个横向的像素作为序列。然后输入到RNN模型中。由于考虑到数据过大,所以先使用了CNN对其进行处理,CNN层会输出一个16*16*53*53的矩阵。 RNN模型的超参数BATCH_SIZE = 32 # 每批处理的数据DEVICE = torch.device('cuda' if torch.cuda.is_available() ...
2021-10-20 22:54:59
1759
1
android-support-v4.jar
2018-05-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人