- 博客(14)
- 收藏
- 关注
原创 使用pytorch搭建卷积神经网络
使用pytorch构建卷积神经网络基于吴恩达老师的深度学习作业,老师所用的是tensorflow,而且版本较老,因为近期接触的是pytorch,打算自己通过pytorch来搭建。Dataset:class CNNTrainDataSet(Dataset): def __init__(self, data_file, transform=None, target_transform=None): self.transform = transform self.
2021-11-30 19:15:24
1839
原创 diagnostic -- 修正
Maching learning diagnostic概念: A test that you can run to gain insight whta is/isn’t working with a learning algorithm,and gain guidance as to how best to improve its performance评估假设:将一组数据分为训练集和测试集,一般以7:3 当数据是有规则时,我们最好使用随机函数,没有规则时,只需要按顺序分割即可。接下来我们使用
2021-11-10 21:28:06
204
原创 backpropagation
反向传播算法利用反向传播识别手写数字:概念,载入数据等重复的过程请参考文章:neural network,本文章只记录代码实现过程数据初始化:input_layer_size = 400hidden_layer_size = 25num_labels = 10# loading and visualizing datadata = sio.loadmat('ex4data1.mat')X = data['X']y = data['y']m = X.shape[0]Y = np.ze
2021-11-09 18:19:51
813
原创 One Vs All
One VS All 目的: 训练一个一对多的模型,本次实验主要是训练出一个识别(0~9)十个数字的模型加载数据:# 初始化数据input_layer_size = 400num_labels = 10# 加载数据print('Loading and Visualizing data')data = io.loadmat('ex3data1.mat')X = data["X"]y = data["y"]m = np.size(X, 0)可视化数据:def display
2021-11-06 16:40:42
939
原创 regularization-修正
正则化概念: 在某种应用场景之下,可能一个结果会有许多影响参数,比如综合评价一个学生的标准,就有一堆的条件,此时会出现过拟合和欠拟合两种情况。 欠拟合:程序对某一个参数偏置严重,甚至只以这个参数为标准。 过拟合:对每一个参数都进行贴合,即使有些参数它其实是无关紧要的(看起来很重要,实际参与运算很小的),这样就会导致函数的复杂度大大提高。 而解决欠拟合和过拟合的方式就是正则化。我们通过引入惩罚项来进行正则化,这是原损失函数cost=12m∑(hθ(xi)−yi)2cost = \f
2021-11-04 20:32:17
127
原创 Logistic Regression-修正
Logistic Regression——二分类概念: 分类算法是一种典型的监督学习算法,数据标签为离散值,比如{0,1},而我们所要做的任务就是通过数据集的训练,让算法能够预测下一组数据为另外一个值的概率。步骤: 前面的gradient descent 介绍了我们的一般方法,我们继续以此步骤完成我们的二分类算法。 在此之前,我们需要将数据集进行分类,例如:有和没有等等对立的元素用{0,1}来表征,这里就需要引入阈值函数,sigmoidf(x)=11+e−xf(x) = \frac
2021-11-03 17:20:29
269
原创 gradient descent修正
线性回归算法主要目的: 通过线性回归算法,根据已知的数据集进行训练得出一条较吻合的曲线。相关概念: 回归曲线:可以直观呈现出数据集相关的关系,并可以进行预测。 梯度下降法: cost function: 回归算法是一种监督学习算法,会有响应的数据与预测数据进行比对,损失函数就是一种预测数据与实际数据偏差的表征。实验步骤:1:根据数据集画出对应的图# Part two plottingdef plotData(x, y): plt.plot(x, y, 'rx', ms='
2021-11-02 15:15:20
225
原创 svm 初入
svm优化函数: 对于线性回归的损失函数,我们有:Cost(hθ(x),y)=yilog(hθ(xi))−(1−yi)(1−log(1−hθ(xi)))Cost(h_\theta(x),y) = y^{i}log(h_\theta(x^{i})) - (1-y^{i})(1-log(1-h_\theta(x^{i})))Cost(hθ(x),y)=yilog(hθ(xi))−(1−yi)(1−log(1−hθ(xi)))当y=1时,我们有:Cost(hθ(x),y)=log(11+e
2021-08-13 14:36:24
220
原创 diagnostic
Maching learning diagnostic概念: A test that you can run to gain insight whta is/isn’t working with a learning algorithm,and gain guidance as to how best to improve its performance评估假设:将一组数据分为训练集和测试集,一般以7:3 当数据是有规则时,我们最好使用随机函数,没有规则时,只需要按顺序分割即可。接下来我们使用
2021-08-05 16:56:04
262
原创 regularization
正则化概念: 在某种应用场景之下,可能一个结果会有许多影响参数,比如综合评价一个学生的标准,就有一堆的条件,此时会出现过拟合和欠拟合两种情况。 欠拟合:程序对某一个参数偏置严重,甚至只以这个参数为标准。 过拟合:对每一个参数都进行贴合,即使有些参数它其实是无关紧要的(看起来很重要,实际参与运算很小的),这样就会导致函数的复杂度大大提高。 而解决欠拟合和过拟合的方式就是正则化。我们通过引入惩罚项来进行正则化,这是原损失函数cost=12m∑(hθ(xi)−yi)2cost = \f
2021-08-03 14:47:08
103
原创 neural network
neural network概念; 神经网络是一种人工智能思想方法,从人脑的角度来学习如何智能化。模型: 我们把第一部分叫作输入层,第二部分叫作隐藏层,第三部分叫作输出层每一条一直到底的线都是一个运算过程我们可以得出如下:a1(2)=g(θ10(1)x0+θ11(1)x1+θ12(1)x2+θ13(1)x3)a2(2)=g(θ20(1)x0+θ21(1)x1+θ22(1)x2+θ23(1)x3)a3(2)=g(θ30(1)x0+θ31(1)x1+θ32(1)x2+θ33(1)x3)h
2021-07-30 14:40:10
554
原创 Logistic Regression
Logistic Regression——二分类概念: 分类算法是一种典型的监督学习算法,数据标签为离散值,比如{0,1},而我们所要做的任务就是通过数据集的训练,让算法能够预测下一组数据为另外一个值的概率。步骤: 前面的gradient descent 介绍了我们的一般方法,我们继续以此步骤完成我们的二分类算法。 在此之前,我们需要将数据集进行分类,例如:有和没有等等对立的元素用{0,1}来表征,这里就需要引入阈值函数,sigmoidf(x)=11+e−xf(x) = \frac
2021-07-05 16:06:26
146
原创 DHCP及ACL实验
DHCP及ACL实验工具:ensp,virtualbox网络拓扑如下:任务:通过DHCP为三台主机分配地址实现互相ping通通过ACL控制PC1无法访问服务器,PC2 与PC3可以实现:首先保证pc机开启了DHCP一定要记得点应用!一定要记得点应用!一定要记得点应用!开始配置交换机进入视图模式system-view 开启DHCPdhcp enable 创建vlan 100 200 300 400 ,分别将pc1 pc2 pc3 serv
2021-06-04 20:11:33
930
原创 机器学习——gradient descent
机器学习——梯度下降法线性回归算法主要目的: 通过线性回归算法,根据已知的数据集进行训练得出一条较吻合的曲线。相关概念: 回归曲线:可以直观呈现出数据集相关的关系,并可以进行预测。 梯度下降法: cost function: 回归算法是一种监督学习算法,会有响应的数据与预测数据进行比对,损失函数就是一种预测数据与实际数据偏差的表征。实验步骤:1:根据数据集画出对应的图2:求出它的近似曲线: 根据图片可以看出这是一个线性函数:我们可以先假设它为h(x)=θ0+θ1xh(x
2021-06-03 18:42:35
185
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人