自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 资源 (1)
  • 收藏
  • 关注

原创 一文让你理解KL散度

KL散度(Kullback-Leibler Divergence),又称为相对熵,是信息理论中的一个重要概念,用来测量两个概率分布之间的差异。KL散度越大代表两个概率分布的差异越大,只有当两个概率分布相同时,KL散度最小,此时为0。它不仅适用于信息论,并且在统计和机器学习中也至关重要。

2025-04-03 20:20:31 577

转载 【无标题】

综合以上两个条件,累积分布函数是个好的选择,因为累积分布函数是单调增函数(控制大小关系),并且值域是0到1(控制越界问题),所以直方图均衡化中使用的是累积分布函数。其中,s_k指当前灰度级经过累积分布函数映射后的值,n是图像中像素的总和,n_j是当前灰度级的像素个数,L是图像中的灰度级总数。③如果一幅图像有两个不相连的区域组成, 并且每个区域的直方图已知, 则整幅图像的直方图是该两个区域的直方图之和。, 描述的是图像中具有该灰度级的像素的个数: 其中, 横坐标是灰度级, 纵坐标是该灰度级出现的率。

2025-02-25 23:47:50 8

原创 Diffusion Model学习笔记

主要由三个部分组成:Text Encoder、Generation Model、Decoder。其中三个部分可以分开训练,再组合到一起。接下来分别介绍这三个部分。实验表明Text Encoder对整个模型的影响是非常大的。很多模型可以被用来做Encoder,eg:ber。这部分数据的训练实际上不需要文字的资料,进需要图片资料。在训练这部分时,我们往往需要一个auto-encoder,目标是使得输入和输出十分相似。一个加减噪声构造数据并训练的过程。

2024-03-27 17:25:43 226 1

原创 记录一下常用的linux命令

本文档用于记录一些常用的linux命令,以免每次百度。

2023-12-02 12:23:59 121 1

原创 pytorch之模型的保存、加载与修改

【代码】pytorch之模型的保存、加载与修改。

2023-07-03 11:25:47 379 1

原创 dataset与DataLoader的简单使用

利用torchvision下载给定的数据到dataset中,并采用DataLoader进行加载。

2023-06-29 14:15:24 167 1

原创 pytorch中常见的Transfroms的使用

本文介绍了几个常用的Transfroms的方法,供参考。

2023-06-29 11:50:35 262 1

原创 pytorch之TensorBoard的简单使用方法

这部分主要记录两个重要函数。

2023-06-28 18:14:11 128 1

原创 30天自制操作系统

30天OS从零开始

2022-10-08 23:45:32 226

shujujiegouch1.1.sln

shujujiegouch1.1.sln

2021-04-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除