- 博客(4)
- 收藏
- 关注
原创 爬虫但是说标题不能太短
headers里面写啥?复制到代码中:状态码200表示请求成功。打印response.text拿到该网站的HTML源码。可以看到电影相关信息。
2025-10-22 15:40:05
2359
原创 卷积神经网络(CNN)实例理解
原始图像由(64,64,3)的图像经10个卷积核(3,3,3)变为特征图像(62,62,10)(已考虑偏差bias)(未使用padding扩充方法)。4.再进行一次卷积核特征提取,原始图像由(62,62,10)的图像经10个卷积核(3,3,10)变为特征图像(60,60,10)---卷积核,特征过滤器,提取特征,在特征图上提取特征看的是和卷积核的相似程度,越相似激活值越高。5.经过ReLU函数和最大池化的处理,提取精华特征,同时将特征图降维到(30,30,10)选取图片为主要为红色的辣椒。
2025-10-18 22:09:23
175
原创 卷积神经网络(CNN)
计算机视觉中,卷积神经网络(CNN)因其独特的结构在图像处理方面具有显著优势。图像本质上是数值矩阵(单通道灰度图或三通道RGB图),CNN通过卷积运算改变图像通道数和尺寸,利用池化层保持通道数但减小图像大小。相比全连接神经网络,CNN能保留图像空间信息,且参数更少,有效减少计算量和过拟合风险。卷积核通过权重共享机制,重点提取图像关键特征。填充操作可防止边缘信息丢失,步幅调节则控制输出尺寸。多通道卷积通过相加融合不同通道信息,池化层(尤其是最大池化)能增强模型鲁棒性和平移不变性。这些特性使CNN成为处理图像数
2025-10-18 20:53:05
1786
原创 全连接神经网络
注意前向传播不只是用最优的参数即训练好的模型进行推理,在模型训练过程中同时有前向传播和反向传播的过程(先利用现有参数前向传播,得到模型输出值计算损失函数,反向传播梯度更新)。这意味着权重向量 [w1, w2] 的更新方向被限制在了第一象限和第三象限的方向上,无法直接指向最优解的方向 [-2, +3](这在第二象限)。由于浅层网络的权重更新量正比于这个梯度,当梯度接近零时,权重几乎不再更新,网络就无法有效地学习和训练了。前向传播就是模型计算推理的过程,参数是确定的,将输入值代入得到模型的输出值。
2025-10-16 21:00:04
1285
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅