
机器学习
文章平均质量分 65
x66ccff
编程爱好者
展开
-
【安逗比】安逗比实用小技巧
【代码】【安逗比】安逗比实用小技巧。原创 2025-03-07 19:16:37 · 95 阅读 · 0 评论 -
【SAE】SAE在Evo 2中的工作原理与可解释性疑惑解答
为什么将神经网络的隐藏层用稀疏自编码器(SAE)处理后就能实现’可解释性’?这个’可解释’是如何实现的?还是需要额外的人工分析?原创 2025-03-07 11:40:51 · 673 阅读 · 0 评论 -
变分自编码器(VAE)和 贝叶斯神经网络(BNN)的 KL散度在惩罚什么?
作用:惩罚隐变量的分布 $ q(z \mid x) $ 偏离标准正态分布 $ \mathcal{N}(0, 1) $。意义:促进潜在空间的连续性和可插值性,从而生成多样性和连贯性更好的样本。作用:惩罚权重的后验分布 $ q(W \mid D) $ 偏离先验分布(通常是 $ \mathcal{N}(0, 1) $)。意义:防止模型退化成传统神经网络,保持权重的随机性,量化预测的不确定性,提升模型的泛化能力。原创 2024-11-19 19:26:06 · 658 阅读 · 0 评论 -
【概率统计】生存分析
SA原创 2023-12-27 15:08:54 · 1024 阅读 · 0 评论 -
【taichi】利用 taichi 编写深度学习算子 —— 以提取右上三角阵为例
本文以取 (bs, n, n) 张量的右上三角阵并展平为向量 (bs, n*(n+1)//2)) 为例,展示如何用 taichi 编写深度学习算子。如图,要把形状为bsnn的张量,转化为bs2nn1的向量。我们先写一个最简单的最慢的纯 python 循环实现方法。原创 2023-02-13 21:17:45 · 735 阅读 · 0 评论 -
【pytorch】.mul .add_ 和直接 + * 有什么区别
mul()和.add_()是 PyTorch 中的 in-place 操作,这意味着它们会直接在原变量上进行操作,而不会返回新的变量。相反,和是 Python 的运算符,它们会返回新的变量,不会改变原变量的值。对于大规模的数据处理,使用 in-place 操作可以节省内存空间。原创 2023-01-23 11:37:22 · 1132 阅读 · 1 评论 -
【pytorch】Softmax,LogSoftmax,CrossEntropyLoss,NLLLoss,F.cross_entropy, F.binary_cross_entropy傻傻分不清楚?
在实际应用中,如果发现模型训练过程中出现数值稳定性问题,或者需要加速训练过程,使用 LogSoftmax + NLLLoss 可能是一种较优的选择。在计算损失时,使用 NLLLoss 计算对数似然损失需要进行一次对数运算,而 CrossEntropyLoss 需要进行两次对数运算。在输入数值较大时,使用 Softmax 会导致溢出,而 LogSoftmax 则不会。而 LogSoftmax 之后,得到预测概率分布的对数。可以看到,这两种搭配方法计算的结果是一致的。,负对数似然损失就是将两个分布。原创 2023-01-13 09:30:10 · 1240 阅读 · 0 评论 -
【pytorch】训练时爆 Nan 的排查方法
【pytorch】训练时爆 Nan 的排查方法。转载 2022-12-29 23:34:31 · 727 阅读 · 0 评论 -
【pytorch】MNIST 梯度上升法求使得某类概率最大的样本
目标:用 MNIST 训练一个 CNN 模型,然后用梯度上升法生成一张图片,使得模型对这张图片的预测结果为 8。原创 2022-11-21 14:37:34 · 753 阅读 · 0 评论 -
【pytorch】GaussianNLLLoss 官方文档翻译
介绍 Pytorch 官方文档的高斯负对数似然函数 Gaussian NLL Loss。翻译 2022-11-14 10:08:07 · 1312 阅读 · 0 评论 -
【pytorch】在 Jupyter Notebook 中使用损失图绘制库 livelossplot
livelossplot 是一个方便的损失和精确度指标绘制工具,可以方便地在Jupyter 笔记本中当前的机器学习评价指标并。原创 2022-11-11 12:32:53 · 1405 阅读 · 0 评论 -
【GNN】dgl 卷积方式 RelGraphConv
本文对 dgl 的卷积方式说明文档进行翻译。译者注: RelGraphConv 关系图卷积方式是在 GraphConv 图卷积方式上的改进,解决了 GraphConv 无法考虑到图中具有不同属性的边的问题,使用 RelGraphConv 可以同时汇聚边信息和结点信息。翻译 2022-11-11 10:44:37 · 998 阅读 · 0 评论 -
【GNN】用 GCN 预测 CoraGraphDataset 结点类别
利用 GCN,在数据集上进行训练,根据图结构和特征字段(1433 维词向量),对结点 label 类别进行预测。原创 2022-11-10 15:25:29 · 1180 阅读 · 0 评论 -
【面试大题】CNN 参数计算
CNN 参数计算原创 2022-07-27 19:23:34 · 1536 阅读 · 0 评论 -
【面试大题】决策树
决策树面试大题原创 2022-07-27 19:19:06 · 1159 阅读 · 0 评论