弹性函数匹配技术:BinDNN与BinDiff的对比分析
1. 样本构建与神经网络应用
1.1 虚假匹配样本构建问题
在函数匹配中,虚假匹配样本可由集合 (X_k) 中的每个元素 (i) 与集合 (\overline{X_k}) 中的所有元素 (j) 构成。但直接使用这种方法会导致虚假样本数量过多,使模型学习时间过长,且造成真实和虚假比较样本数量失衡。具体来说,对于函数 (k),真实样本数量计算公式为:
[
\text{Number of true samples} = \binom{|X_k|}{2}
]
虚假样本数量计算公式为:
[
\text{Number of false samples} = \sum_{i = 0}^{|X_k|}|\overline{X_k}|
]
当有超过 10000 个独特函数时,训练集规模会迅速膨胀到难以管理的程度。为解决此问题,在构建真实匹配时使用上限值 (\alpha),为函数 (k) 创建 (\min(|X_k|, \alpha)) 个样本,同时创建大致相等数量的虚假匹配样本。
1.2 神经网络的使用
该方法的最后阶段是使用深度神经网络对样本进行分类。这是一个 8 层的网络,网络以比较结构为输入,返回一个置信度分数,表明它由两个匹配的函数表示组成的可能性,即它们代表从同一源代码函数编译而来的指令序列。
在使用工具前,需在构建的大样本集上进行训练。对于如此规模的网络,训练会花费大量时间。模型对于未见过的新函数分类无需重新训练,但在扩展可分类的架构数量时需要重新训练。在实验准备阶段,使用之前构建的数据集对网络进行训练
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



