- 博客(37)
- 收藏
- 关注
原创 贝叶斯神经网络
因为所拟合的分布会存在最值的情况,我觉得是因为用分布去采样生成权重,采样生成的权重数值好歹差不多了,如果分布的概率密度函数有好几个凸点,表示每次采样在好几个凸点周围产生的概率差不多,分布太均匀了,我们需关注的就是唯一一个最高点,作为我们的权重,此时最值是我们需要投入大量关注的点,即其附近值的概率最大,与高斯分布相似**。现实生活中存在的情况就是大部分人都是普通人,符合高斯分布的情况。那么神经元的是一个分布得出的了,通过采样得出,那么就没有办法进行反向传播,咦,这个时候,重参数化就提出来了,参考链接[3]。
2025-03-31 18:30:35
357
原创 docker torcherve打包mar包并部署模型
v路径映射: -v /home/lxz-2/lyw/class_eval/model_store:/home/model-server/model-store将 /home/lxz-2/lyw/class_eval/model_store映射/home/model-server/model-store。输入完上述命令后进入docker容器的伪终端,此时所使用的环境为 registry.cn-shanghai.aliyuncs.com/jhinno/torch-serve:v6.1。
2025-03-28 21:03:15
848
原创 基于FFT计算循环相关的内容
自相关函数是对信号自身的负相关,表示一个序列不同时刻的相关程度。它经常用于信号处理的分析函数和序列,例如R(s,t)=E(X(s)*X(t))。类似对自身不同时刻的序列进行卷积。但是又有一些不同。RttrlimT→∞1T∫0TxtxtrdtRttrT→∞limT10∫Txtxtrdt其中r为一个时域位移信号。与卷积公式对比。
2023-07-21 10:16:50
1810
原创 通俗易懂介绍傅里叶变换
我们生活在这个世界,好像一切事情都是沿着时间发展的,比如人的身高、大家的感情经历、股票趋势等等,大家对时域理解相比于频域更容易。但是我告诉你,如果这个世界从频域的角度考虑是静态的,你可能会不可思议,我先举一个例子,再写这篇笔记的时候,为了避免枯燥乏味,我打开了音乐,没错音乐他的播放是随时间,这个就是时域。这是我们对音乐最普遍的理解,对于乐手来说他是由一个个音符组成的,其中不同的音符他的频率不同,这就是下图就是该音乐在频域的表现方式,大家对频域这一概念其实并不陌生。
2023-07-21 07:40:09
944
原创 NNDL 实验六 残差网络实现CIFAR10
CIFAR-10数据集包含了10种不同的类别、共60,000张图像,其中每个类别的图像都是6000张,图像大小均为32×3232\times3232×32像素。CIFAR-10数据集的示例如图5.15所示。图5.15:CIFAR-10数据集示例将数据集文件进行解压:直接将文件加入到kaggle,kaggle自动解压迁移学习,顾名思义,就是要进行迁移。放到人工智能和机器学习的学科里,迁移学习是一种学习的思想和模式。
2022-11-10 23:16:32
1579
原创 NNDL实验六卷积神经网络(2)基础算子
这次实验练了练习英语,发现英语还没有退步,自己调用pytorch框架卷积了一波,实现了老师给的demo,同时遇到了一些问题,我们可以发现,conv2d的输入和卷积的权重都应该是四维的,其对应意义如下图片:[输入的图片的数量,输入图片的通道数,每个通道数的高,每个通道数的宽]卷积核参数初始化:[输出通道数,输入的通道数,每层卷积核的高,每层卷积核宽]。这算是一个新知识了,有了这个公式以后,卷积就跟做数学题解析几何一样套公式就可以了。
2022-10-23 20:29:14
1156
原创 NNDL 作业6:基于CNN的XO识别
生成如下9×99\times 99×9的X型图像:卷积核生成生成课上需要的如下三种卷积核:卷积操作卷积是对输入信号经过持续的转换, 持续输出另一组信号的过程.,通过卷积生成新函数。输入是固定的蓝色方框和红色框,红色框滑动作为滑动窗口,输出的黑线,代表的是滑动窗口与蓝色框的重叠面积。前向传播:选图像区域的最大值作为该区域池化后的值。反向传播:梯度通过最大值的位置传播,其它位置梯度为0前向传播:计算图像区域的平均值作为该区域池化后的值。反向传播:梯度取均值后分给每个位置。减少维度
2022-10-22 18:50:43
1355
原创 NNDL 实验五 前馈神经网络(3)鸢尾花分类
由于隐藏层过多会造成过拟合,同时会造成时间的大幅浪费,这里我们不再增加隐藏层的层数,我们只增加隐藏层神经元的个数。神经元的个数为4,学习率为0.2神经元的个数为8,学习率为0.2神经元的个数为8,学习率为0.1神经元的个数为4,学习率为0.1经过多次测试后,我们选取训练效果较好的几组参数,通过实验结果我们发现先,运用该模型的时候,隐藏层神经元的个数为4,学习率为0.2的时候拟合效果最好,在验证集上准确率达到了1.0。。超参数为 学习率 为0.3,含有一层隐藏层,隐藏层神经元为4个,
2022-10-13 20:18:54
1749
1
原创 NNDL 作业4 第四章作业
这次的问题相对于上次来说比较简单,大部分时间都用在了自己的拓展知识面上,对L0、L1、L2正则化系数的了解,上课讲的一下常用的激活函数的了解,例如ELU等。这次4-2问题费了我较多的时间,使用ReLU激活函数,出现了梯度消失的现象,,后来经过同学的指点迷津,我才发现。
2022-10-08 18:08:28
1392
原创 NNDL 实验五 前馈神经网络(2)
附上这次实验的kaggle连接,前馈神经网络实验2,上面有全套运行的python代码,这次是学习自动梯度计算和优化问题,主要是确定模型后,寻找让模型最优的办法。虽然我们能够通过模块化的方式比较好地对神经网络进行组装,但是每个模块的梯度计算过程仍然十分繁琐且容易出错。在深度学习框架中,已经封装了自动梯度计算的功能,我们只需要聚焦模型架构,不再需要耗费精力进行计算梯度。torch提供了类,来方便快速的实现自己的层和模型。模型和层都可以基于`nn扩充实现,模型只是一种特殊的层。继承了。
2022-10-06 19:16:22
1114
原创 NNDL实验四 线性分类
前言:在做这次实验的时候是在Kaggle上运行的,因为Kaggle上有小小的免费的GPU加速,同时小小的体会到了在训练模型的时候,GPU加速和CPU加速之间的一种区别。Kaggle是一个很好的网站,有各式各样的大佬。同时Kaggle上已经导入了机器学习中的很多包,例如torch、tensorflow等等,非常方便。kaggle官网分类是机器学习中最常见的一类任务,其预测标签是一些离散的类别(符号)。根据分类任务的类别数量又可以分为二分类任务和多分类任务。线性分类是指利用一个或多个线性函数将样本进行分类。常用
2022-09-21 17:41:59
368
原创 NNDL0作业1:第二章课后习题
NNDL 作业1:第二章课后习题习题 2-1 分析为什么平方损失函数不适用于分类问题 , 交叉熵损失函数不适用于回归问题.明确了解分类和回归。才能知道什么是合适,什么是不合适的。首先明确分类和回归的区别 我认为的分类,是把一堆东西,分成好几堆东西,且每堆东西都有他正确的类别,分类的好坏,取决于正确的类别的数目的多少,而回归,则是要找出一个描述这堆东西的函数,使所有的东西都尽可能都用我这个函数描述出来,所以回归的好坏不仅仅取决于已经可以用我这个函数进行描述
2022-09-15 15:55:06
630
3
原创 NNDL 实验二pytorch入门
第三部分: 是一个崭新的部分,之前机器学习老师给的是已经处理好的数据集,没有进行数据预处理这方面,这部分也算了解了一些,处理缺失值有两种办法,一种是插值,一种是删除,插值的化可以用均值插值,也可以用中位数进行插值。删除直接删除其他元素就好了,对于一些语义,不是用数字进行表示的,例如玫瑰花、西兰花,可以转换为数据种类长度的的维度的变量,然后用[1,0]这种表示,例如[1,0]表示的是玫瑰花。以张量x和y进行广播为例,x的shape为[2, 3, 1,5],张量y的shape为[3,4,1]。
2022-09-06 10:33:55
773
1
原创 大数据的相关内容
大数据(英语:Big data),又称为巨量资料,指的是在传统数据处理应用软件不足以处理的大或复杂的数据集的术语数据也可以定义为来自各种来源的大量非结构化或结构化数据。从学术角度而言,大数据的出现促成广泛主题的新颖研究。这也导致各种大数据统计方法的发展。大数据并没有统计学的抽样方法;它只是观察和追踪发生的事情。因此,大数据通常包含的数据大小超出传统软件在可接受的时间内处理的能力。由于近期的技术进步,发布新数据的便捷性以及全球大多数政府对高透明度的要求,大数据分析在现代研究中越来越突出。——维基百科。...
2022-08-31 17:39:07
6337
原创 无约束算法--直接法
直接法优点可以不用计算梯度,直接得到最优值。1坐标轮换法思想:n维坐标系的坐标方向即为下一次迭代的方向。例如:二维f(x,y) = x+y;搜索方向为p0(1,0);p1(0,1);流程如下:收敛的方向不一定是下降方向,收敛速度可能也比较慢,和最速下降法一样,出现锯齿状、讲完原理,咱们自然而然(naturally)的就要讲简单的例题来进行应用了说完例题咱们说说什么样的题适合他,正所谓美女配枭雄。坐标轮换法正如枭雄一样,适合沉鱼落雁,变量较少,函数较好的题目。但是如果不够美的花,枭雄自
2022-04-25 23:02:39
800
原创 最优化方法---最速下降法
最速下降法的思想根据函数本身的表达式,找到梯度下降最快的地方,确定下一个x;(这里我们当作xk+1)小拓展:csdn博客中将下标用~括起来,.上标用^括起来(表示次幂 x)xk+1 xk
2022-04-08 10:20:41
610
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人