- 博客(6)
- 收藏
- 关注
原创 0. 机器学习与深度学习
我们现在正处于机器学习的第三次浪潮中,人工智能似乎已经不再只是一个概念性的存在,如同几十年前的互联网与搜索引擎一样,逐渐变成了一个被广泛使用的工具,而卷积神经网络模块化的设计让这个工具的使用门槛不断下降。了解机器学习与深度学习似乎成为新时代学科的标准范式,但是除了计算机相关专业学生,比起了解复杂的计算公式,比如SVM,反向传播过程,对这些概念有基本的了解,在一些辅助工具的帮助下,比如Pytorch,就足以支撑完成一些简单的探索工作。因此我们不妨简单讲一讲机器学习的故事,就当作看个课外读物有个基本了解。
2025-01-26 23:00:42
890
原创 KL散度(Kullback-Leibler Divergence)
通常用KL散度来衡量两个分布的相似性,在图像中这个概念被广泛用于衡量两个图像分布的相似程度。DKL∑i1PrlogPrPθDKLi1∑PrlogPθPr其中PrP_rPr表示真实图像的概率分布,PθP_\thetaPθ表示通过某一组参数生成的图像概率分布,比如通过GAN生成的Fake图像。基于概率分布的定义,有∑Pr1\sum P_r=1∑Pr1∑Pθ1∑Pθ。
2024-12-10 17:09:42
1341
原创 神经网络的可训练参数量
神经网络中参数的数量是一个重要的考虑因素,因为它直接影响了模型的复杂性、训练和推理的效率,模型的泛化能力。展平层的作用是将之前输出特征转换为一维向量,以便连接到全连接层,其本身没有可训练参数。为输出通道数,最后一项为每个卷积核对应的偏置的参数。输出格式为(510, 510,3),参数量为896。假设输入为(512, 512, 3),卷积层为。输入为(1600),输出为(400),全连接层为。池化层本身没有可训练参数,但是会影响输出尺寸。为输出通道数,最后一项为偏置项的参数。其中K为卷积核大小,
2024-03-17 21:33:37
1028
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅