- 博客(10)
- 收藏
- 关注
原创 关于tf.contrib.layers.batch_norm的pytorch替代torch.nn.BatchNorm1d() 的一些注意事项
tf版本为1.14,torch为1.13.1,总结,可以用 torch.nn.BatchNorm1d() 替代,但三维输入数据时需要在应用 BatchNorm1d 前对最后两维进行转置,应用后再转置回来。二维输入时可直接替代。
2024-01-22 16:48:42
627
2
原创 NeurIPS 2021 神经主题模型的对比学习 Contrastive Learning for Neural Topic Model
这篇文章的目标是借助了对比学习框架去优化NTM学习到的主题分布和词分布,并将这个框架以多重输入(正样本和负样本都要通过推断网络得到隐向量)的形式融合到NTM的训练过程中,并没有额外地引入其他模块,同时,构建正样本和负样本的方式基于人类对相似文章的认知,关键词出现的次数越多越相似,先抽选出原文的关键词,负样本中关键词占比较少,正样本中不关键的词占比较少。
2023-09-14 21:40:07
317
1
原创 2019ACM收录文章 MVAE: Multimodal Variational Autoencoder for Fake News Detection
论文阐述了虚假新闻检测任务中图片,文字信息融合对检测准确率提升的重要性。提出了一种融合了图片和文本信息的VAE应用于虚假新闻检测。
2023-08-29 17:36:17
266
1
原创 神经主题模型(NVDM-GSM)
本文介绍了神经主题模型,还希望读者之前有变分自编码器的知识。相比于传统主题模型,其推导更简单,结合了深度学习,在数据集庞大的时候效果较好。
2023-08-18 11:45:57
1141
1
原创 两个多维高斯分布的KL散度公式推导
两个多维高斯分布的KL散度公式推导是变分自编码器中损失函数的组成部分,本文假设两个多维高斯分布的每个分变量相互独立,进行了公式推导。
2023-08-16 10:34:50
821
1
原创 变分自编码器(VAE)
本文介绍了变分自编码器,属于深度生成模型,建议读者有EM算法和变分推断的知识。其用两个神经网络拟合了两个复杂的概率密度函数,称为推断网络和生成网络,采用重参数技巧,以便使用梯度下降进行优化。
2023-08-11 09:57:54
5837
1
原创 GMM高斯混合模型
高斯混合模型(Gaussian Mixture Model,GMM)是关于多个高斯分布的加权和,可以用于对含有多峰的数据进行建模,本文采用EM算法对其进行了参数估计,提供了完整的公式推导过程。
2023-08-04 13:33:28
223
1
原创 EM算法及公式推导
EM(Expectation Maximum)算法用于解决含隐变量的概率图模型的参数估计问题,基本思想是从样本数据的对数边际似然出发,通过引入变分函数来得到证据下界(ELBO,Evidence Lower BOund),之后让ELBO最大,从而使得对数边际似然最大,采用迭代的方法来最大化边际似然。
2023-08-02 12:42:59
334
1
原创 Ant Design Charts中如何为图表中的元素绑定事件
本文以一个可视化项目出发,分享了使用Ant Design Charts时绑定事件的一些教程,并举例详解了实现步骤。
2023-07-31 11:36:17
2099
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人