自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 【工具】豆包API批量图生图完整指南

《豆包API批量图生图完整指南》详细介绍了如何通过火山引擎平台使用豆包API进行批量图像生成。指南从账号注册、API获取开始,提供了三种批量生成方法:单次请求批量生成、多prompt循环生成和并发批量生成,并附有Python代码示例。文章还包含高级参数配置建议、最佳实践注意事项和常见问题解决方案,帮助用户高效实现商业设计、专业海报等场景下的批量图像生成需求。

2025-10-22 21:33:06 1278

原创 【笔记】CMD | 什么是CMD(Central Moment Discrepancy, 中心矩差异)?

本文介绍了中心矩(CMD)的概念及其在统计分布对齐中的应用。中心矩通过不同阶数刻画数据分布特征:一阶矩是均值,二阶矩为方差,三阶矩对应偏度,四阶矩描述峰度。CMD通过比较两个分布的前K阶中心矩来评估其相似性,其中K通常设为固定值(如5阶)以平衡计算成本和精度。在跨模态表示对齐中,CMD能直接比较不同模态的统计特征,避免对抗训练的不稳定性。文章还解释了K的选择与数据维度无关,而是基于实用性和稳定性考虑的经验值。

2025-08-20 15:43:14 854

原创 【笔记】Fine-tuning & Instruction Tuning | 什么是Fine-tuning和Instruction Tuning?

普通微调 (Fine-tuning):这是一个广义的概念。它指的是在已经预训练好的模型(Pre-trained Model)的基础上,用一个特定的、较小的数据集对其进行二次训练,以适应某个特定任务或领域的过程。这是迁移学习(Transfer Learning)的一种核心技术。指令微调 (Instruction Tuning):这是一个狭义的概念,是普通微调的一种特殊形式。它的目标不是让模型适应某个单一任务,而是通过在一个由“指令-回答”构成的数据集上进行微调,教会模型理解并遵循人类指令的泛化能力。

2025-07-24 03:24:22 901

原创 【笔记】Zero-shot & One-shot | 什么是Zero-shot Learning (零样本学习)和One-shot Learning (单样本学习)?

在机器学习的语境中,“shot”这个词,你可以把它直观地理解为“范例”或“样本” (example)。它指的是在让模型执行一个新任务之前,我们给它看了多少个关于这个任务的“正确示范”。Zero-shot Learning (零样本学习)One-shot Learning (单样本学习)Few-shot Learning (少样本学习)这几个概念共同构成了模型学习和适应新任务能力的评价体系。

2025-07-24 01:56:16 770

原创 【笔记】Google Colab | Google Colab 使用指南(含常用功能详解)

Google Colab 是基于云的 Jupyter Notebook 环境,提供免费 GPU/TPU 资源、Python 库支持和文件管理功能。

2025-07-23 00:53:33 1741

原创 【自用】多模态人格识别项目任务书

本文章没有任何营养价值,只是把优快云当免费云文档使用。请各位同学不要学习,学了也没用

2025-07-21 15:31:47 459

原创 【刨根问底】变分自编码器(VAE) | 什么是变分自编码器(Variational Autoencoder, VAE)?

变分自编码器(VAE)是一种重要的生成模型,通过学习数据在潜空间中的概率分布来生成新样本。与普通自编码器不同,VAE的编码器输出的是概率分布参数(均值μ和方差σ²),而非固定向量。通过重参数化技巧从分布中采样后,解码器重建输入数据。VAE的关键在于其损失函数包含两部分:重建损失确保生成质量,KL散度损失则约束潜空间分布接近标准正态分布,使空间连续且结构化。这种设计让VAE不仅能压缩数据,还能在潜空间中平滑插值,实现高质量的数据生成。

2025-07-10 05:06:40 1301

原创 【刨根问底】VQ-VAE和VQGANs | 什么是VQ-VAE(Vector Quantised-Variational Autoencoder) 和 VQGANs ?

VQ-VAE和VQGAN是两阶段生成模型的关键技术。VQ-VAE通过离散码本将图像编码为视觉词汇序列,解决了VAE后验坍缩问题;VQGAN则引入GAN提升重建质量,使生成图像更锐利。二者的核心区别在于:VQ-VAE使用自编码结构,而VQGAN结合了对抗训练。LDM后来在此基础上改进,用扩散模型替代自回归Transformer处理第二阶段,实现了更高效的图像生成。这些模型的演进体现了从连续潜空间到离散表征,再到结合GAN优势的技术发展路径。

2025-07-10 03:18:02 826

原创 【刨根问底】 自回归模型(ARMs) | 什么是自回归模型(Autoregressive Models, ARMs)?

自回归模型(ARMs)是一种序列数据建模方法,其核心思想是将序列中每个元素的概率建模为依赖于前面所有元素的条件概率。通过链式法则分解联合概率分布,ARMs逐步生成数据(如逐个像素生成图像)。相比马尔科夫链的有限记忆特性,ARMs具有全历史依赖能力,可捕获更复杂的关系。虽然ARMs生成质量高且稳定,但其顺序生成过程导致计算效率较低。现代基于Transformer的ARMs通过长时记忆机制显著提升了建模能力,成为高质量序列生成的重要方法。

2025-07-10 01:34:43 1237

原创 【刨根问底】残差网络 | 为什么需要残差网络来加深网络深度?

同学,你这个问题问到了点子上。能够对一个概念刨根问底,是做好研究的关键素养。是的,我们现在就来把“残差学习”这个概念彻底掰开、揉碎了讲清楚。你引用的那段话是它的核心总结,但其精髓藏在“为什么”之中。我们用一个更生动、更符合直觉的方式来重新理解它。首先,我们有一个非常符合直觉的假设:网络越深,性能应该越好。为什么?因为更深的网络意味着更多的层,更多的参数,理论上它能学习到更复杂的特征,表达能力更强。一个50层的网络,至少应该能包含一个20层网络的所有功能,对吧?美好的愿望是:假设我们已经有了一个训练得很好的、

2025-06-24 23:45:14 850

原创 【笔记】argparse | argparse函数的用法和相关问题

argparse是 Python 标准库中用于解析命令行参数的模块。它使得你可以轻松地从命令行接收参数,并且可以指定这些参数的类型、默认值、帮助信息等。argparse是一个非常强大且灵活的工具,能够帮助你轻松处理命令行参数。通过它,你可以定义程序需要的参数,自动生成帮助信息,并且对输入的值进行验证和类型转换。位置参数是按顺序传递的,并且顺序必须严格一致。如果你定义了多个位置参数,用户必须按顺序提供这些参数,否则会导致程序无法正确识别参数,或者导致错误的行为。

2025-04-23 20:58:17 1265

原创 【笔记】LiDAR360/nvml.dll | 关于LiDAR360软件缺少nvml.dll文件的解决方式

解决在安装LiDAR360软件时,发现虽然能够打开软件,但是软件提示缺少nvml.dll文件的问题。

2025-04-17 00:03:35 473

原创 【笔记】model.classifier / model.fc | model.classifier和model.fc的区别

简要介绍model.classifier和model.fc区别和用法

2024-08-27 15:06:50 1012

原创 【笔记】集合输出有序 | Python中的集合使用print函数输出时有时候会自动排序的问题

Python中的集合使用print函数输出时有时会自动排序的问题

2024-07-10 21:00:45 758 1

原创 【笔记】if return | 含有if判断的代码段内有return的情况

当在C语言中的if语句中包含return语句时,程序在执行到return语句时会立即返回并结束当前函数的执行,同时返回return语句中指定的数值(如果有的话),所以即使在if语句之后还有其他代码,但由于return语句的存在,这部分代码将不会被执行。因此,如果if语句中包含return语句,程序会在满足条件时提前结束函数的执行并返回相应的数值。if判断正确回执行代码段2,然后执行代码段2后面的return,此时function_1执行结束,将不再执行return之后的所有语句,所以不会执行代码段1。

2024-03-14 17:54:56 2593 1

笔记LiDAR360/nvml.dll - 关于LiDAR360软件缺少nvml.dll文件的解决方式

笔记LiDAR360/nvml.dll - 关于LiDAR360软件缺少nvml.dll文件的解决方式

2025-04-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除