自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 小土堆中CIFAR10逐行代码解释(仅供参考)

小土堆中CIFAR10逐行代码解释(仅供参考)

2024-09-22 15:30:33 845

原创 激活函数、损失函数、梯度下降和反向传播算法

激活函数是神经网络中的非线性映射,它们被用来引入非线性因素,使得神经网络能够学习和执行非线性问题。损失函数(或代价函数)是用来评估模型的预测值与真实值之间差异的函数。它是一个需要最小化的函数,优化算法的目标就是找到最小化损失函数的参数。反向传播是一种用于训练神经网络的算法,它通过计算损失函数关于网络参数的梯度来更新参数。梯度下降是最优化算法中用来最小化损失函数的一种方法。它通过迭代地更新参数来减少损失函数的值。反向传播算法是深度学习中的关键,它使得神经网络能够自动和高效地学习复杂的函数映射。

2024-09-10 16:24:27 912

原创 前馈神经网络、卷积神经网络(CNN)、循环神经网络(RNN)和长短期记忆网络(LSTM)的介绍

循环神经网络是一种能够处理序列数据的神经网络,它在每个时间步上处理输入数据,并保持一个隐藏状态,该状态包含了之前时间步的信息。这种网络结构允许信息在网络中循环传递。它使用卷积层来提取输入数据的局部特征,并通过池化层减少特征的空间大小,从而降低计算复杂度。LSTM通过引入输入门、遗忘门和输出门来控制信息的流动,这使得它在处理长序列数据时更加有效。前馈神经网络是一种最简单的神经网络结构,它由输入层、隐藏层(一个或多个)和输出层组成。信息只在一个方向上流动,从输入层经过隐藏层到输出层,没有反向的连接。

2024-09-10 16:23:12 1139

原创 自行安装cuda一些必要的流程(仅供参考)

我的是使用的11.1,再次提醒选择cuda版本必须要大于符合算力的,还要小于查出来的驱动版本。第一步:先看自己用得什么显卡再看自己电脑显卡的算力版本。重点:选择cuda版本必须要大于符合算力的,还要小于查出来的驱动版本。比如我的电脑显卡是1050ti,则可以从表中找到算力是6.1。第二步:看想要的pytorch支持哪个cuda版本就下哪个。再看驱动版本,在命令行输入nvidia-smi查看。中国网站,登陆后下载快cudann。进入页面使用CTRL+f快速查找。这个链接是查看显卡的算力版本。

2024-09-08 11:04:11 370

原创 numpy中的一些运算示例

模块,用于执行线性代数运算,如矩阵乘法、求逆、计算行列式、特征值和特征向量等。这些只是 NumPy 功能的一部分,它还有更多高级功能等待你去探索和使用。NumPy 可以生成各种分布的随机数,如正态分布、均匀分布、指数分布等。NumPy 提供了多种统计函数,如平均值、标准差、方差、中位数等。NumPy 可以用于数据插值,例如线性插值、多项式插值等。模块,用于进行快速傅里叶变换(FFT)和逆变换。

2024-09-08 10:27:27 321

原创 计算机中的张量和标量

维度:标量是0维的,而张量可以是任意正整数维度。数据量:标量表示单个数值,张量表示一组数值的集合。应用:标量用于表示单一的量,张量用于表示在多维空间中的数据结构。在编程库如 NumPy 和 TensorFlow 中,张量是基本的数据结构,用于存储和操作多维数据。

2024-09-08 10:21:57 339

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除