- 博客(9)
- 收藏
- 关注
原创 ERROR 2003 (HY000): Can‘t connect to MySQL server on ‘localhost‘ (10061)
解决办法: 参考文章:https://www.jb51.net/article/26505.htm
2020-12-07 11:38:07
127
原创 《动手学深度学习》笔记---3.16
3.16 实战Kaggle比赛:房价预测 3.16.2 读取数据集 # 导入所需的模块和包 %matplotlib inline import d2lzh as d2l from mxnet import autograd, gluon, init, nd from mxnet.gluon import data as gdata, loss as gloss, nn import numpy as np import pandas as pd # 注意路径:中文问题,使用斜杠 "/",不要使用反斜
2020-12-03 22:07:46
434
1
原创 《动手学深度学习》笔记---3.11&3.12&3.15
3.11 模型选择、欠拟合和过拟合 3.11.1 训练误差和泛化误差 训练误差:模型在训练数据集上表现出的误差 泛化误差:模型在任一测试数据样本上表现出的误差的期望 机器学习模型应关注降低泛化误差 3.11.2 模型选择 验证数据集 训练数据集合和测试数据集之外的数据 k折交叉验证 2.1 把训练数据集分割成k个不重合的子数据集,然后做k次模型训练和验证 2.2 每一次,使用一个子数据集验证模型,使用其他k-1个子数据集来训练模型 2.3 在这k次训练和验证中,每一次用来验证模型的子数据集都不同。
2020-12-03 21:31:46
330
原创 《动手学深度学习》笔记---3.2&3.3
3.1 线性回归 ## 3.1.1 线性回归的基本要素 import mxnet as mx from mxnet import nd import numpy as np from time import time a = nd.ones(shape = 3) #返回一个元组,是每一维元素的个数 a.shape #返回NDArray的维度,即数组总共有多少维 a.ndim #返回NDArray的元素总个数 a.size a output: [1. 1. 1.] <NDArray 3 @cpu(0)
2020-12-03 20:21:28
296
原创 《动手学深度学习》笔记---3.8&3.9&3.10
3.8多层感知机 3.8.1隐藏层 多层感知机中的隐藏层和输出层都是全连接层 虽然神经网络引入了隐藏层,确依然等价于一个单层神经网络,输出层权重是Wh * Wo;偏差参数是bhWo + bo 即使添加更多的隐藏层,以上设计依然只能与仅含输出层的单层神经网络等价 3.8.2 激活函数 上述问题的根源在于全连接层只是对数据做仿射变换,而多个仿射变换的叠加仍然是一个仿射变换 解决问题的方式是引入非线性变换。非线性函数被称为激活函数 以下是几个常用的激活函数。 (1) ReLu函数 # 1. ReLu函数
2020-11-29 17:15:55
373
原创 《动手学深度学习》笔记---3.5&3.6&3.7
3.5 图像分类数据集(Fashion-MNIST) 3.5.1 获取数据集 # 手动下载数据集,参考文章:https://www.cnblogs.com/liwill/p/13591499.html # r 是只读,没有文件时会报错,不覆盖。参考文章:https://www.cnblogs.com/dadong616/p/6824859.html %matplotlib inline import d2lzh as d2l from mxnet.gluon import data as gdata imp
2020-11-28 20:27:31
474
原创 《动手学深度学习》笔记---unit2
《动手学深度学习》笔记–第二章:预备知识 2.2 数据操作 2.2.1 创建NDArray #Ctrl+enter,运行当前cell #shift+enter,运行当前cell,并转到下一个cell #得到的数字中都有一个· import mxnet as mx print(mx.__version__) 1.4.1 import d2lzh as d2l print(d2l.__version__) 1.0.0 #1.利用arange()函数创建等差数组 from mxnet import nd
2020-11-25 16:28:29
439
2
原创 学习记录---梯度
1. 梯度概念 梯度本身是向量,因此它有大小和方向,以二元函数为例, https://baike.baidu.com/item/%E6%A2%AF%E5%BA%A6/13014729?fr=aladdi 梯度可分解为沿着X轴、Y轴方向的子向量,大小分别为对x,y的偏导数。 梯度表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(梯度方向)变化最快,变化率最大(梯度的模)。 2. 梯度与方向导数 方向导数是在函数定义域的内点,对某一方向求得的导数。 以二元函数为例, http
2020-07-16 00:04:28
519
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人