- 博客(9)
- 资源 (1)
- 收藏
- 关注
原创 一文让你理解KL散度
KL散度(Kullback-Leibler Divergence),又称为相对熵,是信息理论中的一个重要概念,用来测量两个概率分布之间的差异。KL散度越大代表两个概率分布的差异越大,只有当两个概率分布相同时,KL散度最小,此时为0。它不仅适用于信息论,并且在统计和机器学习中也至关重要。
2025-04-03 20:20:31
577
转载 【无标题】
综合以上两个条件,累积分布函数是个好的选择,因为累积分布函数是单调增函数(控制大小关系),并且值域是0到1(控制越界问题),所以直方图均衡化中使用的是累积分布函数。其中,s_k指当前灰度级经过累积分布函数映射后的值,n是图像中像素的总和,n_j是当前灰度级的像素个数,L是图像中的灰度级总数。③如果一幅图像有两个不相连的区域组成, 并且每个区域的直方图已知, 则整幅图像的直方图是该两个区域的直方图之和。, 描述的是图像中具有该灰度级的像素的个数: 其中, 横坐标是灰度级, 纵坐标是该灰度级出现的率。
2025-02-25 23:47:50
8
原创 Diffusion Model学习笔记
主要由三个部分组成:Text Encoder、Generation Model、Decoder。其中三个部分可以分开训练,再组合到一起。接下来分别介绍这三个部分。实验表明Text Encoder对整个模型的影响是非常大的。很多模型可以被用来做Encoder,eg:ber。这部分数据的训练实际上不需要文字的资料,进需要图片资料。在训练这部分时,我们往往需要一个auto-encoder,目标是使得输入和输出十分相似。一个加减噪声构造数据并训练的过程。
2024-03-27 17:25:43
226
1
原创 dataset与DataLoader的简单使用
利用torchvision下载给定的数据到dataset中,并采用DataLoader进行加载。
2023-06-29 14:15:24
167
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人