【论文研读】Similarity of Neural Network Representations Revisited (ICML2019)

该论文(ICML2019)研究了神经网络表示的相似性,关注相似性指数的不变性特性。作者发现早期层相对于后期层更能学习到相似的表示。文章对比了不同相似性结构,如内积基的相似性、Hilbert-Schmidt独立性准则(HSIC)和中心化核对齐(CKA)。CKA被证明在揭示层间对应关系方面最为有效,尤其在不同网络架构中。

Title: Similarity of Neural Network Representations Revisited (ICML2019)

Author:Simon Kornblith ...(Long Beach, California)

目录

Aim:

invariance properties of similarity indexes 分为三个方面

Comparing Similarity Structures

Related Similarity Indexes

Results

Conclusion and Future Work


Aim:

  • one can first measure the similarity between every pair of examples in each representation separately, and then compare the similarity structures.

 

invariance properties of similarity indexes 分为三个方面

1. Invariance to Invertible Linear Transformation

定义:A similarity index is invariant to invertible linear transformation if s(X, Y ) = s(XA, Y B) for any full rank A and  B.

Key sentence:

  • We demonstrate that early layers, but not later layers, learn similar representations on different datasets.
  • Invariance to invertible linear transformation implies that the scale of directions in activation space is irrelevant.
  • Neural networks trained from different random initializations develop representations with similar large principal components 不同初始化得到的主要参数是相似的。因此基于主要参数得到的不同网络间的相似性度量(如欧氏距离)的相似的。A similarity index that is invariant to invertible linear transformation ignores this aspect of the representation, and assigns the same score to networks that match only in large principal components or networks that match only in small principal components.

 2. Invariance to Orthogonal Transformation

定义:s(X, Y ) = s(XU, Y V

### 基于图匹配深度神经网络的AIS雷达轨迹多目标关联算法实现 目前关于基于图匹配深度神经网络(Graph Matching Deep Neural Network, GMDNN)应用于自动识别系统(Automatic Identification System, AIS)雷达轨迹的多目标关联算法的研究较少公开完整的代码实现。然而,可以从已有研究中提取一些关键思路并尝试构建其实现框架。 #### 图匹配与深度学习结合的核心概念 图匹配是一种用于解决结构化数据之间对应关系的方法,在计算机视觉和模式识别领域有广泛应用[^1]。通过引入深度神经网络,可以增强模型的学习能力以及对复杂场景的理解力。对于AIS雷达轨迹中的多目标关联问题,其核心在于如何有效地表示目标之间的动态特性及其相互作用,并利用这些特征完成最优匹配。 一种可能的技术路线如下: 1. **输入表示** 将每条AIS雷达轨迹建模为节点属性向量的形式,其中每个节点代表一个观测到的目标位置信息。边权重则可以通过计算两节点间的时间间隔、距离变化率等因素得到。 2. **图嵌入层** 使用图卷积网络(Graph Convolutional Networks, GCN)或其他形式的图神经网络来捕获局部拓扑结构的信息,从而生成更鲁棒的节点表征[^2]。 3. **相似度矩阵构造** 对两个待比较的图分别经过上述处理后,形成各自的低维表达空间;接着定义某种衡量标准(如余弦距离或欧氏距离),建立它们间的成对相似性得分构成的矩阵。 4. **优化求解器** 针对该二分图最大权匹配问题设计专门的损失函数,借助梯度下降法迭代调整参数直至收敛至全局最优解。 以下是简化版伪代码示例: ```python import torch from torch_geometric.nn import GCNConv class GraphMatchingNet(torch.nn.Module): def __init__(self, input_dim, hidden_dim, output_dim): super(GraphMatchingNet, self).__init__() self.conv1 = GCNConv(input_dim, hidden_dim) self.conv2 = GCNConv(hidden_dim, output_dim) def forward(self, x, edge_index): h = self.conv1(x, edge_index).relu() z = self.conv2(h, edge_index) return z def compute_similarity_matrix(z1, z2): sim_mat = torch.matmul(z1, z2.t()) norm_z1 = torch.norm(z1, p=2, dim=-1, keepdim=True) norm_z2 = torch.norm(z2, p=2, dim=-1, keepdim=True) normalized_sim_mat = sim_mat / (norm_z1 * norm_z2.T) return normalized_sim_mat # Example usage model = GraphMatchingNet(input_dim=..., hidden_dim=..., output_dim=...) z1 = model(data_x1, data_edge_index1) # Embedding for first graph z2 = model(data_x2, data_edge_index2) # Embedding for second graph similarity_matrix = compute_similarity_matrix(z1, z2) ``` 此部分展示了基本架构的设计理念,具体细节还需依据实际需求进一步完善调试。 ---
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值