
深度学习笔记
胡桃怪人
梦想是成为勇者
展开
-
深度学习笔记(四)
在m个样本上的梯度下降先区分一下损失函数和代价函数的区别:损失函数是在单个样本上;代价函数是在多个样本上,是所有样本误差的平均,也就是损失函数的平均梯度下降:迭代公式是:w -= a*dJ(w,b)/dw在多个样本中,采用for()循环来实现,第一个for循环来实现样本数的变化,第二个for循环来实现对w,b的迭代向量化向量化使得算法运行速度更快,来取代for()循环本质就...原创 2020-02-10 17:56:52 · 277 阅读 · 0 评论 -
动手学深度学习(三)
问题汇总在构造多层感知机的时候,提示ndarray不能用view()函数:尝试一:将ndarray类型训练数据集转换为tensor类型报错:显示" too many dimensions"尝试二:怀疑是mxnet版本的d2lzh包里面不会自动将数据转为tensor用pytorch版本的包,解决!...原创 2020-02-06 11:49:53 · 238 阅读 · 0 评论 -
简单线性回归神经网络的搭建
在用Pytorch搭建线性回归网络之前,我们先看一下什么是线性回归: 通俗来讲,回归分析函数对于我们来讲就是一个黑匣子,在我们抛入一系列值之后,如果得到的是连续值(如天气,房价等),那么就是回归问题;如果得到的是离散值,则是分类问题。 而线性回归函数就是当我们抛入的值和得到的连续值呈线性关系的函数,其基本形式是y = k*x+b,在我们以往的学习中都是已知k和b的值,通过x来计算出y的...原创 2019-12-17 19:50:54 · 955 阅读 · 0 评论 -
动手学深度学习笔记(二)
卷积神经网络二维互相关运算:用一个二维数组和卷积核运算,即每个对应元素相乘再求和二维卷积层:输入和卷积核做互相关运算,再加一个标准差作为输出,卷积核和标准差就是我们要迭代的参数通过卷积的到不同的值来判断黑白图像的边缘特征图:二维卷积层的输出感受野:影响元素x的所有可能输入区域...原创 2019-11-24 16:03:38 · 221 阅读 · 0 评论 -
动手学深度学习笔记(一)
数据操作X.exp():张量指数运算time库中time()函数可用来看表达式的运算时间nd.dot(X,Y.T):矩阵乘积norm():norm(x,p)返回x的p范数nd.concat(X, Y, dim=0) :维度(dim)为0,两个矩阵在行上相连接nd.random.normal(0,1,shape=(4,4):建立一个满足均值为0方差为1的4乘4矩阵nd.random...原创 2019-11-18 20:59:31 · 275 阅读 · 0 评论