- 博客(9)
- 收藏
- 关注
原创 卷积操作复杂度公式推导
复杂度Hout⋅Wout⋅Cout⋅Cin⋅k2\text{复杂度} = H_{\text{out}} \cdot W_{\text{out}} \cdot C_{\text{out}} \cdot C_{\text{in}} \cdot k^2复杂度Hout⋅Wout⋅Cout⋅Cin⋅k2该公式反映了卷积核作用于每个像素时的局部操作和跨通道的计算需求。卷积计算复杂度与输入尺寸线性相关。
2024-11-23 22:15:36
935
1
原创 条件概率和边缘概率
边缘概率边缘概率是某个随机变量或事件发生的概率,不考虑其他随机变量或事件的发生与否。它是一个单一事件的概率,通常通过联合概率分布对不相关的其他变量进行求和或积分获得。公式PXx∑yPXxYyPXxy∑PXxYyPXx∫PXxYydyPXx∫PXxYydy条件概率条件概率是给定一个事件 (B) 已经发生的情况下,另一个事件 (A) 发生的概率。
2024-09-08 21:33:31
1174
原创 1x1卷积作用
1x1卷积是一种卷积核大小为1x1的卷积操作。在输入特征图的每个位置,1x1卷积仅对该位置的通道进行线性组合,而不影响空间维度。特征降维是指通过减少特征图的通道数来降低其维度。这种操作可以有效减少参数数量和计算复杂度,避免过拟合,提高计算效率。特征升维是指通过增加特征图的通道数来提升其维度。这种操作可以增强特征表达能力,增加模型的表示能力,捕捉更丰富的特征信息。
2024-08-05 09:40:20
944
1
原创 激活函数作用以及可视化
激活函数引入非线性变换,使得神经网络可以学习和表示更复杂的函数关系。没有激活函数,神经网络只会执行线性变换,无法处理复杂的数据。:一些激活函数(如sigmoid和tanh)会将输入值归一化到一定范围内(例如0到1或-1到1),有助于稳定网络的训练过程。:激活函数的导数用于反向传播算法中,影响梯度的传播和更新。:非线性变换使得神经网络可以模拟任何复杂的函数关系,而不仅仅是线性的。:在高维空间中,通过非线性变换,可以更好地将不同类别的数据分离开来。
2024-08-03 00:30:51
781
原创 从零开始NLP(一):基于机器学习的文本分类
个人转行NLP领域,准备重新学习,先用fudannlp的NLP-Beginner项目来练练手。FuDanNLP地址我将按照FuDanNLP的NLP-Beginner项目中的任务一:基于机器学习的文本分类,实现基于logistic/softmax regression的文本分类。我们将使用《神经网络与深度学习》第2/3章作为参考资料,并使用Rotten Tomatoes数据集进行实验。实现要求使用NumPy,需要了解文本特征表示、分类器、数据集划分等知识点,并进行实验分析。
2024-05-28 16:38:26
2179
原创 输入图像名称可视化NuScenes数据集
通过以上步骤,可以成功地加载并可视化了NuScenes数据集中的图像及其标注信息。此方法不仅适用于图像,还可以扩展到其他传感器数据的可视化。
2024-05-20 23:06:19
962
原创 双目视差图到点云的转换(原理+代码)
*** @brief 简单的点云数据结构,包含每个点的三维坐标和置信度。*//*** @brief 简单的点云数据类型,是一系列 SimplePoint 结构的集合。*/
2023-11-29 23:19:09
6937
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人