NN_Layer
文章平均质量分 91
迪三
聚焦AIGC应用技术 (Email:disanda@foxmail.com)
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
生成模型:扩散模型(DDPM, DDIM, 条件生成)
扩散模型的理论较为复杂,论文公式与开源代码都难以理解。现有的教程大多侧重推导公式。为此,本文通过精简代码(约300行),从代码运行角度讲解扩散模型。原创 2025-01-30 00:02:05 · 5110 阅读 · 0 评论 -
生成模型:生成对抗网络-GAN
GAN的生成原理依赖于生成器和判别器的博弈这种独特的机制使GAN在图像生成、文本生成等领域表现出色。具有表现为:生成器 (Generator, G)生成器的目标是从一个随机噪声(通常是服从某种分布的向量,例如高斯分布或均匀分布)中生成与真实数据分布尽可能相似的样本。判别器 (Discriminator, D)判别器的目标是区分真实数据(来自真实数据分布)和生成器生成的数据,以分类器的形式输出一个概率值。原创 2025-01-17 16:17:30 · 1694 阅读 · 0 评论 -
生成模型:变分自编码器-VAE
导入必要的库编码器:将输入数据映射为潜在变量 z 的均值μ\muμ和方差σ2\sigma^2σ2解码器:从潜在变量 z 重构原始数据# 编码器nn.ReLU(),nn.ReLU()self.fc_mu = nn.Linear(256, latent_dim) # 均值self.fc_logvar = nn.Linear(256, latent_dim) # 对数方差# 解码器nn.ReLU(),nn.ReLU(),原创 2025-01-08 23:40:06 · 1181 阅读 · 0 评论 -
Pyorch中 nn.Conv1d 与 nn.Linear 的区别
1D卷积的用途原创 2024-09-13 10:54:07 · 1497 阅读 · 0 评论 -
Pytorch中的卷积与反卷积详解(conv2d和convTranspose2d)
Pytorch中的卷积与反卷积详解(conv2d和convTranspose2d)卷积和反卷积是图片计算在深度学习中常用的上采样和下采样操作。相比其他采样操作,卷积计算不仅可以保存参数的梯度传递(适用用BP),还可以改变图片的通道以更好的整合局部特征。在torchn.nn中,卷积操作是一个函数,输入为一组图片或特征变量[n,c,w,h],输出也为一组变量[n,c,w,h].变量类型为tenso...原创 2020-04-26 09:28:38 · 21375 阅读 · 11 评论 -
Attention和Transformer的Pytorch实现
讲解NLP和神经网络中常见的注意力(Attention)模块和transformer模块实现(Pytorch)。原创 2022-12-18 20:11:31 · 1924 阅读 · 0 评论
分享