
pytorch搭建网络
文章平均质量分 77
本专栏用来记录本人用pytorch搭建各种网络的笔记
JU HE
一个专注于机器学习、深度学习的AI炼丹师。
展开
-
0 补充:工具函数常用(标准化、独热编码)
sklearn 里面preprocessing(预处理模块),StandardScaler()可以将数据进行标准化,即转换为均值为0,方差为1的正态分布注意StandardScaler()只支持列标准化,即每一列都减去均值,然后除以方差,好像是不支持行标准化.fit_transform(data): 进行标准化.inverse_transform(data):返回标准化可以将经过标准化的特征数据转换回其原始形式。原创 2024-11-15 15:02:51 · 368 阅读 · 0 评论 -
pytorch + d2l环境配置
一直想写一篇 pytorch + d2l的深度学习环境配置。但一直都不是很顺利,配置过很多次,都会遇到一些各种依赖项的兼容性问题。但这个是没有办法的,各种开源包都在不断维护过程中,版本迭代中出现兼容性问题不可避免。下面我就给出我摸索出的一套配置:GPU版(CPU版倒是没有那么多问题)cuda11.8 + cudnn11.x(如果官网找不到11.8,就找11.x, 根据经验不跨大版本问题不大)原创 2024-10-24 00:10:11 · 900 阅读 · 0 评论 -
8 多输出预测与多标签分类pytorch网络搭建
前面我们搭建的无论是分类还是回归都只能预测一个标签,这显然效果很局限。多输出预测(回归):例如训练网络拟合北东天坐标转机体坐标的关系,输入是三坐标,输出也是三坐标多标签分类:例如,输入图像数据,训练网络判断图片里面有猫,有狗,还是只有其中一种这样【注】:在介绍pytorch的内置损失函数博客中已经介绍了pytorch的损失函数是支持这个功能的。以上都只构建了一层网络,所以效果很差,这里只是做一个简单的记录而已。原创 2024-07-16 21:52:35 · 806 阅读 · 0 评论 -
pytorch常用内置loss函数与正则化技术(补充小细节)、优化器(optimizer)
本博客主要简要记录一下对pytorch内置损失函数的一些理解和正则化技术在pytorch里面是怎么调用的。这就是本文的内容了,主要是很多细节部分需要记录一下。原创 2024-05-13 12:07:46 · 1235 阅读 · 0 评论 -
7 pytorch DataLoader, TensorDataset批数据训练方法
后面我们会经常用到这种batch和epoch的训练方法。原创 2024-04-12 16:48:17 · 346 阅读 · 1 评论 -
6-pytorch - 网络的保存和提取
我们训练好的网络,怎么保存和提取呢?总不可以一直不关闭电脑吧,训练到一半,想结束到明天再来训练,这就需要进行网络的保存和提取了。本文以前面博客的网络进行网络的保存和提取,建议先看完上面博客再来看本博客。原创 2024-04-12 15:18:56 · 882 阅读 · 0 评论 -
5-pytorch-torch.nn.Sequential()快速搭建神经网络
本文内容还是基于4-pytorch前馈网络简单(分类)问题搭建这篇的相同例子,只是为了介绍另一种更加快速搭建网络的方法,看个人喜好用哪一种。这里的这种搭建方法是使用**torch.nn.Sequential()**快速搭建,不用我们在继承重写net类了。选择那种方法搭建,看个人喜好,效果完全一样。原创 2024-04-11 23:15:58 · 667 阅读 · 1 评论 -
4-pytorch前馈网络简单(分类)问题搭建、torch.max()函数、F.softmax()函数
本博客会搭建输入层(2节点),隐藏层(10节点),输出层(2节点)分类问题在我看来可比回归问题复杂多了,在搭建网络前,需要先介绍几个在分类问题里面的常用函数,了解了这几个函数的用法看网络搭建代码才会轻松点。分类与回归相比。网络搭建有一些小的细节需要特别注意哟!具体的细节我写在了代码的注释上面。看到这里,恭喜,监督学习里的分类和回归网络你可以初步搭建网络了。接下来一起搭建更加复杂有趣的网络吧。原创 2024-04-09 11:26:15 · 1042 阅读 · 0 评论 -
torch.normal()函数详解
torch.normal()函数说人话解释,官方文档和大多数博客不说人话,本博客保证有基础就一定能看懂,并且相当简单,还有一个例子教怎么用torch.normal()生成服从正态分布的二维数据并可视化出来原创 2024-04-06 14:16:52 · 8235 阅读 · 1 评论 -
3-pytorch搭建一个简单的前馈全连接层网络(回归问题)
终于到搭建神经网络了,开心吧!本博客会根据生成的数据搭建一个输入层节点1,单隐藏层(10节点),输出层(1节点)的前馈神经网络来拟合生成的数据。其中隐藏层使用relu激活函数,输出层不使用激活函数。恭喜,看到这里相信你已经学会怎么用pytorch搭建前馈神经网络了。原创 2024-04-05 23:21:09 · 743 阅读 · 1 评论 -
2-pytorch激活函数
激活函数作用就是将原来线性的变成非线性,让神经网络变的更加强大。本文会介绍神经网络中的常用激活函数,以及其在pytorch里面的接口。关于回归、分类问题是不同类型的激活函数,具体问题具体选择。另外对于前馈神经网络隐藏层一两层激活函数选择应该是任意一个都大概率能达到满意的非线性效果,但是如果超过了2层更多层,就需要思考一下用那个激活函数了,如果选的不好,极大可能导致梯度爆炸或者梯度消失这些头疼的问题在反向传播过程中。原创 2024-04-04 23:29:53 · 446 阅读 · 2 评论 -
1-pytorch基础
在用pytorch进行搭建网络前需要先熟悉一下其中的一些主要API接口,本文会记录一些简单又很常用的接口,方便后续查阅。例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。原创 2024-04-03 11:41:54 · 973 阅读 · 1 评论