- 博客(4)
- 收藏
- 关注
原创 CBAM: 卷积注意力模块
注意力机制是机器学习中的一种数据处理方法,起源于自然语言处理领域,后来在计算机视觉中广泛应用。注意力机制本质上与人类对事物的观察机制相似:一般而言,我们在观察事物的时候,首先会倾向于观察事物一些重要的局部信息,然后再去关心一些其他部分的信息,最后组合起来形成整体印象。在计算机视觉中,注意力机制主要和卷积神经网络进行结合,网络除了原本的特征图学习之外,还要学会通过特征图提取权重分布,对原本的特征图不同通道或者空间位置加权。因此,按照加权的位置或者维度不同,将注意力分为空间域、通道域和混合域。
2025-03-18 16:32:50
447
原创 《END-TO-END OPTIMIZED IMAGE COMPRESSION》压缩模型
模型接收的输入为RGB三通道图像,每个像素的取值范围为0-255。在进入分析变换前,需对输入数据进行归一化处理,将其映射到浮点数区间0,1。
2025-03-11 19:03:32
975
原创 《END-TO-END OPTIMIZED IMAGE COMPRESSION》学习笔记
传统的图像压缩方法就是先将数据转化为一个合适的连续值来表示,再进行量化,最后使用无损的熵编码来对量化后的结果来编码。在机器学习中,Z 所在的潜在空间通常是高维且包含复杂相互作用的,直接去积分来计算 p(X) 几乎是不可能的,于是乎,我们就需要将这个问题简化、近似化。归一化操作是指对数据进行处理,使其符合一定的标准或范围,以便更好地适应模型的训练和提高数据的可比性。以量化向量q 的离散概率分布 Pq 的熵 H 来评估码率,如果熵 H很大,就意味着每个量化q包含的信息量很多,因此需要更多的比特来存储或传输。
2025-02-11 19:54:22
819
原创 神经网络学习
这是一个经典的神经网络,红色的是,绿色的是,紫色的是(也叫输入层有3个输入单元,隐藏层有4个单元,输出层有2个单元。神经网络的输入层与输出层的节点数往往是固定的,中间层则可以自由指定;神经网络结构图中的拓扑与箭头代表着过程时数据的流向结构图里的关键不是圆圈(代表“神经元”),而是连接线(代表“神经元”之间的连接)。每个连接线对应一个不同的(其值称为), 一个神经网络的训练算法就是让权重的值调整到最佳,以使得整个网络的预测效果最好。
2025-02-11 17:57:09
930
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人