自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 0. 机器学习与深度学习

我们现在正处于机器学习的第三次浪潮中,人工智能似乎已经不再只是一个概念性的存在,如同几十年前的互联网与搜索引擎一样,逐渐变成了一个被广泛使用的工具,而卷积神经网络模块化的设计让这个工具的使用门槛不断下降。了解机器学习与深度学习似乎成为新时代学科的标准范式,但是除了计算机相关专业学生,比起了解复杂的计算公式,比如SVM,反向传播过程,对这些概念有基本的了解,在一些辅助工具的帮助下,比如Pytorch,就足以支撑完成一些简单的探索工作。因此我们不妨简单讲一讲机器学习的故事,就当作看个课外读物有个基本了解。

2025-01-26 23:00:42 890

原创 CycleGAN Loss函数分析

针对CycleGAN中Loss部分基于官方代码分析。

2024-12-18 14:56:23 1418

原创 KL散度(Kullback-Leibler Divergence)

通常用KL散度来衡量两个分布的相似性,在图像中这个概念被广泛用于衡量两个图像分布的相似程度。DKL∑i1PrlogPrPθDKL​i1∑​Pr​logPθ​Pr​​其中PrP_rPr​表示真实图像的概率分布,PθP_\thetaPθ​表示通过某一组参数生成的图像概率分布,比如通过GAN生成的Fake图像。基于概率分布的定义,有∑Pr1\sum P_r=1∑Pr​1∑Pθ1∑Pθ​。

2024-12-10 17:09:42 1341

原创 神经网络的可训练参数量

神经网络中参数的数量是一个重要的考虑因素,因为它直接影响了模型的复杂性、训练和推理的效率,模型的泛化能力。展平层的作用是将之前输出特征转换为一维向量,以便连接到全连接层,其本身没有可训练参数。为输出通道数,最后一项为每个卷积核对应的偏置的参数。输出格式为(510, 510,3),参数量为896。假设输入为(512, 512, 3),卷积层为。输入为(1600),输出为(400),全连接层为。池化层本身没有可训练参数,但是会影响输出尺寸。为输出通道数,最后一项为偏置项的参数。其中K为卷积核大小,

2024-03-17 21:33:37 1028 1

原创 ubuntu20.04运行ExplORB-SLAM

对于ExplORB-SLAM代码运行过程中环境依赖测试

2023-03-25 15:04:13 397 2

原创 ubuntu20.04安装UE4+Airsim环境

版本UE4.27+Airsim1.81

2023-03-16 18:34:44 3174 5

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除