
机器学习与深度学习
文章平均质量分 91
介绍深度学习(Deep Learning)、人工智能(Artificial Intelligence)、卷积神经网络(CNN)等相关知识。
烟锁池塘柳0
天行健,君子以自强不息;地势坤,君子以厚德载物。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【深度学习】评估模型复杂度:GFLOPs与Params详解
本文详细介绍了深度学习模型评估中的两个关键指标:GFLOPs和Params。GFLOPs(十亿次浮点运算)衡量模型的计算复杂度,反映推理速度;Params(参数量)则体现模型大小和存储需求。文章分别阐述了两者的计算方法和代码实现,对比了它们的区别与联系,并提供了常见模型的参数对比表。最后,针对不同应用场景提出了优化建议,帮助开发者在模型设计中平衡计算效率和存储需求。理解这两个指标对于深度学习模型的部署和优化具有重要意义。原创 2025-04-28 20:46:55 · 1544 阅读 · 0 评论 -
【深度学习】LoRA:低秩适应性微调技术详解
本文详细介绍了在深度学习中常用的一种低秩适应性微调技术——LoRA。LoRA作为一种优雅且高效的参数高效微调方法,极大地降低了预训练大模型微调的资源门槛,使个人研究者和小型团队也能参与到大模型的研发中。原创 2025-04-22 16:06:01 · 1086 阅读 · 0 评论 -
【深度学习】Downstream Model:预训练模型的下游应用与微调技术
下游模型(Downstream Model)是指在预训练模型基础上,通过微调(Fine-tuning)或迁移学习方法,针对特定任务进行优化的模型。下游任务是指我们真正想要解决的具体应用任务,如文本分类、命名实体识别等。在自然语言处理领域,下游任务建立在预训练模型之上,利用预训练模型学习到的语言知识来解决特定问题。预训练模型通过大规模语料库学习通用语言表示,而下游任务则利用这些表示来解决具体应用场景的问题。原创 2025-04-09 14:30:30 · 994 阅读 · 0 评论 -
【深度学习】Self-Attention机制详解:Transformer的核心引擎
本文介绍了Self-Attention(自注意力机制)。在深度学习领域,Transformer架构的出现彻底改变了自然语言处理(NLP)的格局,而Self-Attention(自注意力)机制则是Transformer的核心组件。Self-Attention兼具了卷积的局部处理能力和全连接层的全局连接特性,但它通过动态生成权重的方式实现了更灵活的表示学习,这也是Transformer架构成功的关键因素之一。原创 2025-03-24 20:46:31 · 1747 阅读 · 0 评论 -
【深度学习】对比学习(Contrastive Learning)解析
本文详细介绍了一种自监督学习方法——对比学习(Contrastive Learning)。对比学习作为一种强大的自监督学习方法,已经在计算机视觉、自然语言处理、推荐系统等多个领域展现出巨大潜力。它不仅降低了对标注数据的依赖,还提升了模型的泛化能力和表示学习能力。原创 2025-04-09 13:42:49 · 3136 阅读 · 0 评论 -
Ground Truth(真实标注数据):机器学习中的“真相”基准
本文介绍了机器学习与深度学习领域的一个常见概念:Ground Truth(GT,真实标注数据)。Ground Truth(简称GT)是指在训练和评估机器学习模型时使用的已知正确答案或标签。它是模型学习的基础,也是评估模型性能的标准。在图像分类任务中,Ground Truth是每张图片的正确类别标签(label)在目标检测中,Ground Truth是物体在图像中的精确位置和类别(mask、annfiles等)在自然语言处理中,Ground Truth可能是文本的情感标签或正确的翻译。原创 2025-03-27 16:23:27 · 1701 阅读 · 0 评论 -
【深度学习】GAN生成对抗网络:原理、应用与发展
本文介绍了一种生成模型——GAN(生成对抗网络)。GAN作为深度学习领域的重要创新,不仅在学术界引起了广泛关注,也在工业界找到了丰富的应用场景。GAN中的两个网络通过对抗训练不断提升自己的能力:生成器努力生成更逼真的数据以欺骗判别器,判别器则努力提高自己的鉴别能力。如果你想要更详细地了解某个特定的GAN变体或应用场景,可以告诉我,我可以为你提供更深入的内容。条件GAN通过引入额外的条件信息(如类别标签),使生成器能够生成特定类别的数据。原创 2025-03-25 16:39:09 · 1917 阅读 · 0 评论 -
【深度学习】扩散模型(Diffusion Model)详解:原理、应用与当前进展
本文介绍了一种生成模型——扩散模型(Diffusion Model)。扩散模型作为生成式AI的重要技术,已经在多个领域展现出巨大潜力。随着算法的不断优化和计算资源的提升,扩散模型将在更广泛的应用场景中发挥作用,推动生成式AI的进一步发展。原创 2025-03-25 16:38:03 · 3399 阅读 · 1 评论 -
【深度学习】Cross-Attention(交叉注意力)机制详解与应用
Cross-Attention(交叉注意力)是一种特殊的注意力机制,用于处理两个不同序列或模态之间的关系。与Self-Attention(自注意力)不同,Cross-Attention允许一个序列(查询序列)通过注意力机制来关注另一个序列(键值序列)中的信息。简单来说,Cross-Attention回答的问题是:“在序列A的每个位置,我应该关注序列B中的哪些部分?原创 2025-03-24 20:31:14 · 5167 阅读 · 0 评论 -
【深度学习】一文看懂监督学习、半监督学习(Semi-supervised Learning)、无监督学习、自监督学习、零样本学习(Zero-shot Learning)
本文详细介绍了机器学习中五种主要的学习范式:监督学习、半监督学习、无监督学习、自监督学习和零样本学习。文章系统地分析了每种学习方法的基本概念、工作原理、常见算法、应用场景及优缺点。文章还介绍了对比学习、提示词调优等重要概念。原创 2025-03-09 10:40:06 · 4153 阅读 · 0 评论 -
Pipeline模式详解:提升程序处理效率的设计模式
本文详细介绍了Pipeline(管道/流水线)模式,这是一种将复杂处理过程分解为多个连续处理阶段的软件设计模式。Pipeline模式源自工业生产中的流水线概念,通过让每个阶段专注于特定任务并将结果传递给下一阶段,实现了高效的数据处理流程。文章阐述了Pipeline的工作原理、主要优势(如提高处理效率、降低耦合性、简化复杂问题)以及在数据处理、CI/CD、机器学习和图像处理等领域的广泛应用。原创 2025-03-05 21:24:22 · 1581 阅读 · 0 评论 -
【深度学习】1×1卷积的作用与原理详解
本文详细介绍了深度学习中1×1卷积的工作原理及其重要应用。1×1卷积在卷积神经网络架构中经常使用,本文通过公式推导说明了1×1卷积如何在保持空间维度不变的情况下对通道维度进行操作,实现对通道数的调整与特征融合。原创 2025-03-02 16:50:56 · 1290 阅读 · 0 评论 -
【深度学习】PixelShuffle与Sub-pixel卷积详解
本文介绍了PixelShuffle与Sub-pixel的相关知识。PixelShuffle作为一种高效的上采样方法,通过亚像素卷积的思想,在图像超分辨率、图像生成等任务中展现出了优越的性能。它不仅计算效率高,还能有效避免传统上采样方法中的棋盘效应问题,成为深度学习中图像处理的重要工具。原创 2025-03-02 16:23:26 · 2258 阅读 · 0 评论 -
【深度学习】合成数据集 与 真实数据集
本文介绍了在深度学习研究中常用的合成数据集与真实数据集。原创 2025-02-23 08:19:53 · 1508 阅读 · 0 评论 -
Camera ISP Pipeline(相机图像信号处理管线)
本文介绍了在相机传感器的图像处理领域的一个常用概念:Camera ISP Pipeline(相机图像信号处理管线)原创 2025-02-22 20:21:35 · 759 阅读 · 0 评论 -
【深度学习】消融实验(Ablation Study):模型优化的关键分析方法
本文介绍了消融实验(Ablation Study)这一模型优化的关键分析方法,这在深度学习相关论文写作与实验中经常用到。原创 2025-02-22 16:26:19 · 3284 阅读 · 0 评论 -
【深度学习】二分类情况下Softmax函数与Sigmoid函数的等价性 / Softmax函数:Sigmoid函数从二分类到多分类的推广
本文说明了二分类情况下Softmax函数与Sigmoid函数的等价性,或者说:Softmax函数可以认为是Sigmoid函数从二分类到多分类的推广。原创 2025-02-16 15:48:27 · 1017 阅读 · 0 评论 -
SOTA、Benchmark与Baseline的含义和区别
本文介绍了SOTA、Benchmark与Baseline的含义和区别。原创 2025-02-13 16:15:07 · 1106 阅读 · 0 评论 -
【深度学习】Softmax 函数详解
本文详细介绍了 Softmax 函数。理解 Softmax 函数对于深度学习模型的设计和实现非常重要,它是连接神经网络输出和概率解释之间的关键桥梁。原创 2025-01-10 21:19:22 · 2849 阅读 · 0 评论 -
【深度学习】Attention注意力机制的公式解析
本文详细介绍了Attention注意力机制的公式及其含义。原创 2025-01-10 21:12:22 · 1918 阅读 · 0 评论