- 博客(5)
- 收藏
- 关注
原创 PyTorch学习笔记——多分类问题 代码分析
神经网络典型处理过程如下定义可学习参数的网络结构(堆叠各层和层的设计);数据集输入;对输入进行处理(由定义的网络层进行处理),主要体现在网络的前向传播;计算loss ,由Loss层计算;反向传播求梯度;根据梯度改变参数值,最简单的实现方式(SGD)为:weight = weight - learning_rate * gradient代码效果Train Epoch: 0 [0...
2020-02-06 18:41:24
1142
原创 PyTorch 学习笔记 -- 优化实例 代码分析
学习目标涉及Matplotlib,numpy,torch三个库函数。初步了解Matplotlib画图工具。简单学会使用随机梯度下降搜寻Minima。学习准备理解随机梯度下降算法概念(SGD)简单理解神经网络反向传播算法的概念效果展示step 0: x = [-4.999000072479248, -0.0009999999310821295], f(x) = 340.0...
2020-02-04 12:45:01
273
原创 torch.rand 和 torch.randn 的区别
torch.randtorch.rand(*sizes, out=None) → Tensor返回一个张量,包含了从区间[0,1)的均匀分布中抽取的一组随机数,形状由可变参数sizes 定义。参数:sizes (int…) – 整数序列,定义了输出形状out (Tensor, optinal) - 结果张量例子:>>> torch.rand(4) 0.919...
2020-01-23 14:54:21
1289
原创 Python中关于X[:,1]和X[:,0]的理解
概念在Python中X[: , 1]和X[: , 0]是Numpy库中对数组的一种索引方法。对于二维数组来说,X[ : 1]表示取数组中所有行中的索引为1的列元素。X[: , 0]表示取数组中所有行的第0个元素。举例X[: , 0]输出结果import numpy as npX = np.array([[0,1],[2,3],[4,5],[6,7],[8,9]])print(X[:,...
2020-01-23 13:58:56
2806
1
原创 我的第一篇博客
我的第一篇博客很有纪念性意义的第一次在网上写博客,之所以选择优快云作为博客的第一个写作平台也是考虑到在DOS平台等搭建博客还不熟悉,并且也还没有任何创作博客的经历,那么在一个完善的优快云平台进行我的新手博客创作确实是很好的选择。why创作博客其实不然,我希望将自己在日常学习生活中学到的东西有归纳的整理起来,对比较抽象的专业知识能有一个更加清晰的大纲和思路,对好的想法可以保留,同时这些博客...
2019-05-09 00:10:15
172
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人