数字组织病理学中的深度多实例学习
1. 多实例学习基础理论
在多实例学习(MIL)中,有两个重要定理为算法设计提供了理论基础。
- 定理22.1 :对于一组实例 $X$ 的评分函数 $S(X) \in R$ ,它是对称函数(即对 $X$ 中的元素进行排列不变)当且仅当它可以分解为以下形式:
$S(X) = g(\sum_{x\in X} f (x))$
其中 $f$ 和 $g$ 是合适的变换。
- 定理22.2 :对于任意 $\epsilon > 0$ ,一个豪斯多夫连续对称函数 $S(X) \in R$ 可以由形式为 $g(\max_{x\in X} f (x))$ 的函数任意逼近,其中 $\max$ 是逐元素向量最大池化函数,$f$ 和 $g$ 是连续函数,即:
$|S(X) - g(\max_{x\in X} f (x))| < \epsilon$
基于这两个定理,可以设计算法来逼近任何排列不变的评分函数 $S(X)$ ,步骤如下:
1. 使用函数 $f$ 将所有实例嵌入到低维空间。
2. 使用排列不变(对称)函数组合嵌入后的实例,例如式(22.5)和(22.6)中所示的嵌入实例的和与最大值。
3. 使用函数 $g$ 将嵌入实例的组合映射到单个标量(分数)。
这里,$g$ 和 $f$ 的选择对MIL模型的性能至关重要。通常,假设 $f$ 和 $g$ 由深度神经网络参数化,因为理论上深度神经网络可以逼近任何非线性函数。
2. MIL方法
在MIL领域,主要有三种方法:
超级会员免费看
订阅专栏 解锁全文
27

被折叠的 条评论
为什么被折叠?



