自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 RuntimeError: CUDA error: CUBLAS_STATUS_INVALID_VALUE when calling cublasSgemm( handle, opa, opb, m,

具体原因仍未知,但我打印出了 query,w_q,b_q 这些量的形状,已确保是正确的,但仍不行。此文为作者在实际跑代码中所遇到的问题,然后尝试了多种方法后找到了一种可行方案,仅供参考。尝试使用 torch.matmul 手动实现这个线性变换操作。

2024-12-17 16:06:53 247

原创 ResNet学习笔记

Batch Normalization是指批标准化处理,将一批数据的feature map满足均值为0,方差为1的分布规律。简而言之,就是计算一个Batch数据的feature map然后再进行标准化(batch越大越接近整个数据集的分布,效果越好),计算公式如下:根据上图的公式可以知道代表着我们计算的feature map每个维度(channel)的均值,

2023-09-13 11:01:59 151

原创 AlexNet学习笔记

但是,若使用的是same convolution时就不一样了,假定步长为1,当在一个宽。如果k为奇数的话,补的这k-1个0可以在两侧对称分布,如果是偶数则不然。② Sigmoid的导数只有在0附近的时候有比较好的激活性,在正负饱和区的梯度都接近。注:全连接层的参数量占了总参数量的90%以上,对全连接层进行改进将有效减少参数量。于0,所以这会造成梯度弥散,而ReLU函数在大于0的部分。:(论文中写的输入为224×224,但实际为227×227),即在输入是负值的情况下,它会输出0,那么神经元就不会被。

2023-09-09 16:38:44 110

原创 卷积ReLU池化上下采样全连接

对于一幅图像I尺寸为M*N,对其进行s倍下采样,即得到(M/s)*(N/s)尺寸的得分辨率图像,当然s应该是M和N的公约数才行,如果考虑的是矩阵形式的图像,就是把原始图像s*s窗口内的图像变成一个像素,这个像素点的值就是窗口内所有像素的均值。全连接层的每个神经元都与前一层的所有神经元相连,因此得名全连接。总之,全连接层是神经网络中非常重要的一种层,它负责将前一层的特征提取结果映射到最终的输出或预测结果。全连接层的输出可以是一个向量,表示类别的概率分布,也可以是一个实数值,表示回归问题中的预测结果。

2023-09-07 14:03:56 314

原创 堆栈操作指令

PUSH、POP

2023-02-28 10:49:41 1351

原创 存储器扩展

位扩展,字扩展,字位扩展

2023-02-23 14:26:22 3691

原创 8088/8086微机系统常用接口芯片控制及状态字

8253、8259A、8255A、8251A

2023-02-22 23:45:51 2171

原创 8259A级联(自学记录)

8259A级联

2023-02-17 12:28:07 5479 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除