- 博客(9)
- 资源 (29)
- 收藏
- 关注
原创 为什么encoder中每个nn.Linear()后都有nn.Relu()或者其他激活函数
【代码】为什么encoder中每个nn.Linear()后都有nn.Relu()或者其他激活函数。
2025-12-02 17:55:19
107
原创 Latent Space(潜在空间)
定义:Latent Space(潜在空间)是一个低纬的,抽象的表示空间,用于描述数据的隐藏特征。作用:它不是原始数据空间,而是模型通过学习得到的压缩表示,通常比原始维度更小,但能保留数据的关键结构和语义信息。
2025-12-02 16:19:14
305
原创 torch.nn.utils.rnn.pack_padded_sequence 与padded_sequence的理解
排序后,按照列切片成一维内部为object的Tensor。
2025-10-23 17:50:51
244
原创 Pytorch 的 LayerNorm
在 PyTorch 中,LayerNorm 是一种常用的归一化方法,特别适用于序列模型(如 Transformer)或小批量训练的场景。它的核心思想是对每个样本的所有特征维度进行归一化,而不是像 BatchNorm 那样对整个 batch 的同一维度进行归一化。
2025-10-08 12:46:04
307
原创 Pytorch的 nn.Linear 理解
in_features 表示输入向量的维度(特征数量),对应线性方程的x1x2xn。x1x2xn。out_features表示输出向量的维度,对应你希望得到的y1y2。y_1,y_2,…。y1y2。nn.Linear 本质就是做矩阵的乘法加偏置的操作。
2025-09-26 15:50:39
429
原创 skiplist 跳跃列表 数据结构
该数据结构常常用于缓存查询数据。数据结构如下:最下面那一层所有的元素都会串起来,然后每隔几个元素挑出一个代表,再将这几个代表使用另一级指针串接起来。最终形成类似金字塔的结构。查询的过程很简单,从顶层开始,往后查询遇到节点的next()比待查的大或者到NIL了,节点不变下移一层继续向后查询,如此反复,直到到了底层还没查到。在查询、添加、删除的时间复杂度上做到O(logN)radis的zset排序以及lucene都用到这种数据结构。...
2020-06-06 15:41:05
130
原创 Jupyter改变默认工作目录
Jupyter改变默认工作目录启动Anaconda Prompt,输入:cmd jupyter notebook --generate-config在 C:\Users\用户名\ .jupyter\ 下 ,生成一个 jupyter_notebook_config.py 的文件。打开jupyter_notebook_config.py文件,将 #c.NotebookApp.not...
2019-03-10 14:53:56
280
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅