1. 深度监督损失函数
Sat-DN中的表达:
Ldepth=1K∑i=1KMi∣Dipred−Digt∣\mathcal{L}_{depth} = \frac{1}{K}\sum_{i=1}^{K}M_i|D_i^{pred} - D_i^{gt}|Ldepth=K1i=1∑KMi∣Dipred−Digt∣
其中MiM_iMi是掩码(排除水域),DigtD_i^{gt}Digt是校准后的深度值。
我们的表达:
Ldepth=λsparseLsparse+λdenseLdense\mathcal{L}_{depth} = \lambda_{sparse}\mathcal{L}_{sparse} + \lambda_{dense}\mathcal{L}_{dense}Ldepth=λsparseLsparse+λdenseLdense
Lsparse=1Ns∑i=1Nswis∥Dipred−Disparse∥1\mathcal{L}_{sparse} = \frac{1}{N_s}\sum_{i=1}^{N_s}w_i^s\|D_i^{pred} - D_i^{sparse}\|_1Lsparse=Ns1i=1∑Nswis∥Dipred−Disparse∥1
Ldense=1Nd∑j=1Ndwjd∥Djpred−(s⋅Djrel+o)∥1\mathcal{L}_{dense} = \frac{1}{N_d}\sum_{j=1}^{N_d}w_j^d\|D_j^{pred} - (s \cdot D_j^{rel} + o)\|_1Ldense=Nd1j=1∑Ndwjd∥Djpred−(s⋅Djrel+o)∥1
核心区别: Sat-DN使用单一损失函数处理所有深度点,而我们区分稀疏点和密集点,赋予不同权重,反映了对不同数据源可靠性的考量。
2. 深度校准计算
Sat-DN中的表达:
s∗,o∗=argmin∑i=1Mw(Pi)⋅Dsparse(Pi)−Ddense(Pi;s,o)∣2s^*,o^* = \arg\min\sum_{i=1}^{M}w(P_i)\cdot D_{sparse}(P_i)-D_{dense}(P_i;s,o)|^2s∗,o∗=argmini=1∑Mw(Pi)⋅Dsparse(Pi)−Ddense(Pi;s,o)∣2
其中w(Pi)w(P_i)w(Pi)是基于重投影误差的权重。
我们的表达:
s∗,o∗=argmin{s,o}∑k=1K∑i=1Nkwk,i∥Dsparse(k,i)−(s⋅Drel(k,i)+o)∥1s^*, o^* = \arg\min_{\{s,o\}} \sum_{k=1}^{K}\sum_{i=1}^{N_k} w_{k,i}\|D_{sparse}^{(k,i)} - (s \cdot D_{rel}^{(k,i)} + o)\|_1s∗,o∗=arg{s,o}mink=1∑Ki=1∑Nkwk,i∥Dsparse(k,i)−(s⋅Drel(k,i)+o)∥1
核心区别: Sat-DN使用L2损失优化每个图像的参数,而我们使用L1损失进行全局联合优化,增强了对异常值的鲁棒性,并确保了跨图像的一致性。
3. 时变训练策略
Sat-DN中的表达:
未明确表述时变策略,似乎在整个训练过程中保持相同权重。
我们的表达:
λsparse(t)=λs⋅1[0,tdrop](t)\lambda_{sparse}(t) = \lambda_s \cdot \mathbb{1}_{[0,t_{drop}]}(t)λsparse(t)=λs⋅1[0,tdrop](t)
λdense(t)=λd⋅1[tstart,tdrop](t)\lambda_{dense}(t) = \lambda_d \cdot \mathbb{1}_{[t_{start},t_{drop}]}(t)λdense(t)=λd⋅1[tstart,tdrop](t)
核心区别: 我们引入了随训练步数变化的动态权重,分阶段引入密集深度并最终淡出深度监督,帮助模型从几何约束过渡到外观细节优化。
4. 深度点采样策略
Sat-DN中的表达:
未明确指定采样策略,可能使用全部点或随机采样。
我们的表达:
S={(x,y)∣x=i⋅δ,y=j⋅δ}\mathcal{S} = \{(x,y) | x = i \cdot \delta, y = j \cdot \delta\}S={(x,y)∣x=i⋅δ,y=j⋅δ}
配合最大点数限制:∣S∣≤Nmax|\mathcal{S}| \leq N_{max}∣S∣≤Nmax
核心区别: 我们明确使用网格采样确保空间均匀覆盖,并设置点数上限平衡监督效果和计算效率,这对大型卫星图像尤为重要。
通过这些数学表达的对比,可以清晰看出虽然基本思想相似,但我们的方法在多个关键方面都进行了实质性创新,特别是在深度融合策略、优化目标、训练动态和采样方法上。这些改进使得深度监督更加稳健且计算效率更高。