
深度学习
文章平均质量分 68
冰蓝蓝
开心 健康 努力
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
torch.unsqueeze:灵活调整张量维度的利器
在深度学习框架PyTorch中,张量(Tensor)是最基本的数据结构,它类似于NumPy中的数组,但可以在GPU上运行。在日常的深度学习编程中,我们经常需要调整张量的维度以适应不同的操作和层。函数就是PyTorch提供的一个非常有用的工具,用于在指定位置增加张量的维度。本文将详细介绍的用法和一些实际应用场景。函数的作用是在张量的指定位置插入一个维度,其大小为1。这个操作不会改变原始数据的内容,只是改变了数据的形状(shape)。这个函数的签名如下:torch.unsqueeze(input, dim, *原创 2024-12-22 18:38:27 · 764 阅读 · 0 评论 -
np.triu:NumPy中提取上三角矩阵的利器
np.triu。原创 2024-12-22 20:53:39 · 670 阅读 · 0 评论 -
神经网络为何充满“神秘感”?到底如何解释?
神经网络确实有一种“神秘感”——一堆看似无意义的数字,经过矩阵乘法、非线性变换等操作,竟然能识别图像、生成文本,甚至预测未来。但这背后并非魔法,而是数学、工程和生物启发的巧妙结合。神经网络的“神秘感”源于其从简单组件中涌现出的复杂行为,但这本质上是一种工程化的数学系统。”(我不能创造的东西,我也无法理解。)通过亲手实现和实验,我们可以将“神秘”转化为对数学之美的惊叹。正如物理学家费曼所说:“原创 2025-04-09 22:03:44 · 387 阅读 · 0 评论 -
注意力机制 Attention
注意力机制通过动态权重分配,解决了长序列建模中的信息丢失问题,并成为Transformer、BERT、GPT等现代模型的核心组件,推动了NLP领域的突破性进展。原创 2025-04-08 20:19:48 · 304 阅读 · 0 评论 -
TensorBoard
涵盖安装、基础操作和高级功能,帮助你高效监控和可视化模型训练过程。掌握这些操作,你可以轻松实现训练过程的可视化与深度分析!(或远程服务器IP:端口)。原创 2025-04-05 15:25:37 · 355 阅读 · 0 评论 -
可视化工具
在PyTorch中,可视化工具对于模型调试、性能分析和结果解释至关重要。原创 2025-04-05 15:07:18 · 655 阅读 · 0 评论 -
梯度(Gradient)与步长(Step Size)
梯度的反方向就是下降最快的方向。原创 2025-04-01 20:58:00 · 779 阅读 · 0 评论 -
交叉熵损失
3. 多标签分类网络结构每个类别独立使用 激活PyTorch 实现⚠️ 关键注意事项数值稳定性类别不平衡输入格式要求原创 2025-04-01 19:48:59 · 433 阅读 · 0 评论 -
Softmax 函数中维度如何选择?
确保每个独立样本(如一个数据点、一个像素、一个时间步)的类别概率和为1。通常,该维度是张量的最后一个维度或显式指定的类别维度。在应用softmax函数时,维度的确定取决于输入张量的形状以及你希望哪个维度上的元素经过归一化后和为1。)上对输入进行归一化,使得该维度上的元素和为1。),常见于图像分割,每个像素点的通道(类别)概率和为1。),每个时间步(或序列位置)的类别概率和为1。,确保每个样本的类别概率形成一个有效的分布。:确定softmax维度的核心是明确。),每个样本的类别概率和为1。原创 2025-03-31 16:38:31 · 405 阅读 · 0 评论 -
是否每一层之间都要线性变换和激活函数?
通过跳跃连接(Skip Connection)将输入直接传递到后续层,此时某些层可能仅包含激活函数或线性变换,而非两者都需要。在Transformer中,注意力层的输出可能直接传递到下一层,不立即应用激活函数。:认为所有层都必须包含线性变换和激活函数。原创 2025-03-30 18:14:20 · 577 阅读 · 0 评论 -
深度学习中的注意力机制:解锁智能模型的新视角
然而,随着数据量的激增和任务的复杂化,传统的深度学习模型面临着效率和性能的双重挑战。在这样的背景下,注意力机制(Attention Mechanism)应运而生,它不仅提升了模型的处理能力,还为深度学习领域带来了新的研究视角。注意力机制已经成为深度学习领域的一个重要分支,它不仅提升了模型的性能,还为人工智能的发展提供了新的思路。3. 语音识别与合成:在语音识别和合成中,注意力机制有助于模型更好地理解语音信号的时序信息,提高了识别的准确率和合成的自然度。随着研究的深入,注意力机制正在不断进化。原创 2024-12-20 21:55:14 · 557 阅读 · 0 评论 -
多层感知机
多层感知机(MLP)的另一个常见名字是“前馈神经网络”(Feedforward Neural Network,FNN)。这种网络结构中,信息只在一个方向上流动,即从输入层到隐藏层,再从隐藏层到输出层,没有反向的连接。这种单向流动的特性使得前馈神经网络在训练和推理时相对简单,也便于并行处理。原创 2024-12-15 21:22:20 · 146 阅读 · 0 评论