自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 over-parameterized network

定义:一个神经网络的参数数量(P)显著大于训练数据的样本数量(N),即P >> N。在经典统计学和机器学习中,这被认为是“灾难”,因为它违背了著名的偏差-方差权衡 (Bias-Variance Tradeoff)。经典理论认为,随着模型复杂度(参数数量)的增加,测试误差会先下降(偏差减小),经过一个“甜蜜点”后会急剧上升(方差增大,即过拟合)。

2025-09-18 17:47:49 454

原创 Neural Self-Expressive Prior (NSEP)

如果说 DIP 是利用了“一张好图应该是什么样”(结构化、平滑)的先验,那么 NSEP 就是利用了“一张好图的内部应该是自洽的”(特征可以相互表达)的先验。NSEP 是对 DIP 思想的深化和发展,它从利用网络结构的隐式先验,转向了利用一个更明确、更强大的基于数据子空间和自相似性的先验。这使得它在处理具有大量重复纹理和结构的图像恢复任务时,往往能获得比 DIP 更好、更精细的结果。

2025-09-17 21:58:02 570

原创 Deep Image Prior

Deep Image Prior 是一个革命性的思想,它揭示了深度神经网络的结构本身就蕴含了强大的自然图像先验。它将图像恢复问题从“学习一个从坏到好的映射”转换为了“用一个结构化的生成器去拟合坏的图像本身”,并通过提前终止来分离信号与噪声。这使得我们可以在没有任何训练数据的情况下,仅利用一张待处理的图像,就能完成去噪、修复、超分辨率等多种任务,极大地拓展了深度学习在图像处理领域的应用边界。

2025-09-17 21:55:32 864

原创 Side Information

摘要: SideInformation(辅助信息)指除待处理图像外的额外数据,用于提升图像处理效果,分为两类: RealSideInformation:真实存在的高质量参考数据(如GroundTruth),常用于监督学习,但现实场景中难以获取。 PseudoSideInformation (PSI):通过算法生成的伪辅助信息(如估计的清晰图像),虽不完美但实用性强,适用于无监督学习或实际应用,弥补真实数据的缺失。两者均通过提供额外约束优化处理效果,但前者精准,后者灵活。

2025-09-17 19:26:02 601

原创 图像不同颜色空间转化处理RGB2LAB;RGB2YUV;RGB2HSV;RGB分通道处理

将图像从RGB空间转换到lab颜色空间再对l通道进行自适应直方图均衡(clahe),最后转换回rgb空间。

2025-01-02 23:37:01 353

原创 常见损失Loss

均方误差是最常见的回归问题中的损失函数。它是预测值与真实值之差的平方的平均值。计算公式如下:其中,yi是真实标签,y^i是预测值,N是样本数。

2024-12-31 11:01:49 2180

原创 Guided Side Priors

是深度学习中用于提升图像恢复、去噪、超分辨率等任务的技术,它借助(通常是附加的辅助信息或先验知识)来优化图像处理过程。通过在神经网络训练中加入引导信息,网络能够更好地理解输入数据的结构或纹理,进而改善目标图像的恢复质量。

2024-12-23 14:01:52 712

原创 Unrolling Methods

Unrolling Methods 是一种将传统优化算法与深度学习相结合的策略,能够通过将迭代过程转换为神经网络的形式,实现端到端的训练。这种方法能够在图像恢复、压缩感知等任务中显著提升性能。它的优势在于能够自动学习更新规则和先验知识,而缺点则是训练和计算成本较高。

2024-12-23 13:32:06 1067

原创 连续松弛(Continuous Relaxation)

我们为每个操作定义一个连续值,例如 x1,x2,x3,x4,每个 xi∈[0,1],表示选择每个操作的权重。

2024-12-22 19:43:19 1432

原创 特征蒸馏(Feature Distillation)

特征蒸馏是一种高效的深度学习模型压缩技术,它通过利用教师模型的中间特征信息来引导学生模型的训练。相较于传统的标签蒸馏,特征蒸馏能够捕获更丰富的层次信息,使得学生模型能够更好地学习到数据的深层次特征。尽管特征蒸馏在实践中面临着一些挑战,如特征对齐问题和计算开销,但它依然在许多任务中显示出了强大的性能提升潜力,是深度学习模型压缩和高效化的有力工具。

2024-12-22 17:48:59 4228 1

原创 Neural Architecture Search (NAS) 原理和应用

首先需要定义一个搜索空间,这个空间描述了所有可能的网络架构的集合。搜索空间可以非常大,因此需要合理设计搜索空间,以确保搜索过程高效且能够找到有效的架构。

2024-12-22 14:50:57 1323

原创 神经隐式表示(Neural Implicit Representations, NIR)

神经隐式表示(Neural Implicit Representations, NIR)是一种基于神经网络的方法,用于表示和重建复杂的几何形状、物体表面、场景等。与传统的显式几何表示(如网格、点云、体素等)不同,神经隐式表示通过神经网络学习数据的隐式表达,通常是通过一个连续函数来表示形状、纹理或场景等的特征。

2024-12-18 16:28:17 2851

原创 MLP与CNN

是一种基础的前馈人工神经网络模型,通常由输入层、多个隐藏层和输出层组成。每一层由若干个神经元组成,每个神经元与上一层的所有神经元相连接。通过卷积操作能够高效地处理图像数据等具有空间结构的复杂数据。适用于处理一般的结构化数据(如表格数据),而。,因为它能够更好地提取图像的空间层次特征。常常在图像处理领域取代了传统的。

2024-12-18 16:11:48 1098

原创 HSV颜色空间

特性RGBHSV直观性不直观,颜色调整较难直观,适合调整亮度和饱和度应用场景显示设备(屏幕、电视)图像编辑、颜色分割、图像分析计算成本直接使用RGB数值,无需转换需要从RGB转换到HSV,可能带来计算负担颜色调节需要复杂的色彩模型转换才能进行直观调整可以直接调整明度、饱和度等参数,操作简便适应性适合设备显示和图像存储适合颜色检测、特征提取和视觉分析。

2024-12-18 14:53:25 2417

原创 变分自编码器(VAE)

变分自编码器(Variational Autoencoder,简称VAE)是一种生成模型,用来生成新的数据(比如图片、音频等)。它可以学习到数据的潜在(隐含)结构,从而生成类似的样本。VAE的灵感来自于自编码器(Autoencoder)和变分推断VAE是一种生成模型,通过学习数据的潜在分布,能够生成新的数据。与传统的自编码器不同,VAE在编码器中引入了概率分布,并通过重新参数化技巧让模型能够进行梯度优化,从而生成更加丰富的、样本多样性更高的数据。

2024-12-15 21:43:56 1180

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除