稀疏传感器放置
Title
Group Greedy Method for Sensor Placement
Autor information
引用格式:Jiang, Chaoyang, et al. “Group greedy method for sensor placement.” IEEE Transactions on Signal Processing 67.9 (2019): 2249-2262.
Full text
Abtract
文章讨论了线性逆问题中传感器放置的贪婪方法,从优化均方误差 (MSE)、置信椭圆体积和最坏情况误差方差的角度全面回顾了贪婪方法,证明优化 MSE 相关成本函数的贪婪方法可以找到接近最优的解决方案。 然后文章提供了一种新的快速算法来优化 MSE。 在贪心方法中,我们一个一个地选择传感位置。 这样,搜索空间大大减小,但忽略了许多有效解。 为了进一步改进当前的贪心方法,我们提出了一种群贪心策略,可用于优化所有三个标准。 在每一步中,我们保留一组次优传感器配置,用于生成下一步的潜在传感器配置,最好的一个用于终止条件的判断。 与目前的贪心方法相比,分组贪心策略增加了搜索空间,但大大提高了求解性能。文章说明一般贪婪方法和组贪婪方法可以获得最优解的充要条件。文章提供了一种实用的方法来找到合适的组大小,所提出的组贪婪方法可以找到与最优解具有几乎相同性能的解。
求解传感器放置的问题的方法
启发式方法、凸优化和贪心法被用于传感器放置问题。
启发式方法虽然可以降低计算成本,但是计算量还是很大且没有最优性保证。
凸优化方法是利用凸松弛(放宽代表传感器位置的布尔约束)将非凸的组合优化问题近似为凸性。由于约束近似,具有简单舍入过程的凸优化问题的解决方案可能导致病态观察模型,局部优化技术和迭代舍入过程可以改善结果,但是计算成本高。适用于小规模问题。
组贪婪方法
在该方法中我们迭代地保留一组(在某些度量意义上的前 L) 次优传感器配置。 每个传感器配置由上一步保留的传感器配置和选定的新传感位置组成。 一旦组成员之一(即传感器配置)满足性能要求,我们就停止迭代,该成员就是我们的解决方案。 实际上,将新传感器添加到最后一步的次优传感器配置可能优于将新传感器添加到最后一步的最佳传感器配置。
子模函数
子模块性是集合函数的一个属性,它体现了收益递减的概念。如果将一个元素添加到较小的集合比将相同的元素添加到较大的集合产生更大的边际增益,则称集合函数是子模函数。 形式上,集合函数
f
:
2
V
−
>
R
f: 2^V -> R
f:2V−>R是子模的,如果对于
V
V
V 的任何子集
A
A
A和
B
B
B,且
A
⊆
B
A\subseteq B
A⊆B满足以下条件:
f
(
A
∪
x
)
−
f
(
A
)
≥
f
(
B
∪
x
)
−
f
(
B
)
对于所有
x
∈
V
/
A
。
f(A \cup {x}) - f(A) ≥ f(B \cup {x}) - f(B) \text{对于所有 $x ∈ V/ \ A$}。
f(A∪x)−f(A)≥f(B∪x)−f(B)对于所有 x∈V/ A。
简单来说,这意味着将元素添加到较小子集的边际收益大于或等于将相同元素添加到较大子集的边际收益。 子模块化是机器学习、运筹学和经济学等各个领域的有用属性。例如,在机器学习中,子模函数用于优化问题,以从更大的集合中选择多样化且具有代表性的数据点子集。
f
(
S
g
r
e
e
d
y
)
−
f
(
∅
)
≥
(
1
−
e
−
1
)
(
f
(
S
∗
)
−
f
(
∅
)
(1)
f(S^{greedy})-f(\emptyset)\ge(1-e^{-1})(f(S^*)-f(\emptyset) \tag{1}
f(Sgreedy)−f(∅)≥(1−e−1)(f(S∗)−f(∅)(1)
S
∗
S^*
S∗是贪婪算法得到的最优解,则如果目标代理函数是子模函数,且实际最优解为
S
o
p
t
S^{opt}
Sopt,有
f
(
S
∗
)
≥
(
1
−
e
−
1
)
f
(
S
o
p
t
)
f(S^{*})\ge(1-e^{-1})f(S^{opt})
f(S∗)≥(1−e−1)f(Sopt)
传感器选择问题的数学形式
组合优化问题
m
i
n
i
m
i
z
e
M
=
∣
S
∣
s
u
b
j
e
c
t
t
o
S
⊆
N
f
(
S
)
≥
γ
minimize\ M=|\ \mathcal S\ | \\subject\ to\ \mathcal S \subseteq \mathcal N\\f(\mathcal S)\geq\gamma
minimize M=∣ S ∣subject to S⊆Nf(S)≥γ
对偶优化问题:
m
i
n
i
m
i
z
e
f
(
S
)
s
u
b
j
e
c
t
t
o
S
⊆
N
∣
S
∣
=
M
(
2
)
minimize\ f(\mathcal S) \\subject\ to\ \mathcal S \subseteq \mathcal N\\|\ \mathcal S\ |=M\ (2)
minimize f(S)subject to S⊆N∣ S ∣=M (2)
最优解的充要条件
如果
M
A
=
∣
A
∣
<
M
B
=
∣
B
∣
M_{\mathcal A}=|\mathcal A|\lt M_{\mathcal B}=|\mathcal B|
MA=∣A∣<MB=∣B∣,两者都是问题(2)的贪心法的最优解,贪心法能得到最优解的充要条件是:
A
⊂
B
\mathcal A \sub\mathcal B
A⊂B
对于组贪心法,如果一组解
{
A
G
1
,
A
G
2
.
.
.
A
G
L
}
\{\mathcal A_{G_1}, \mathcal A_{G_2}...\mathcal A_{G_L}\}
{AG1,AG2...AGL}中存在
i
∈
[
1
,
L
]
i\in[1, L]
i∈[1,L],有
A
G
i
∈
B
\mathcal A_{G_i}\in \mathcal B
AGi∈B,则组贪心算法有最优解
组贪心算法伪代码
A, D, E最优性
文章证明MSE(A-最优性)是子模函数,并给出了对应的快速贪心算法。VCE(D-最优性)在以前文献已经证明。MCEV(E-最优性)不是子模函数,贪婪算法没有最优性的保证,因此贪婪算法不能良好运行。
f
M
S
E
(
S
∪
j
)
=
n
ϵ
−
t
r
(
Ψ
S
∪
{
j
}
−
1
)
=
n
ϵ
−
t
r
(
Ψ
S
−
1
)
+
ϕ
j
T
Ψ
S
−
2
ϕ
j
1
+
ϕ
j
T
Ψ
S
−
1
ϕ
j
f_{MSE}(\mathcal S\cup j)=\frac n\epsilon-tr(\Psi^{-1}_{\mathcal S\cup\{ j\}})\\=\frac n\epsilon-tr(\Psi_\mathcal S^{-1})+\frac{\phi_j^T\Psi_\mathcal S^{-2}\phi_j}{1+\phi_j^T\Psi_\mathcal S^{-1}\phi_j}
fMSE(S∪j)=ϵn−tr(ΨS∪{j}−1)=ϵn−tr(ΨS−1)+1+ϕjTΨS−1ϕjϕjTΨS−2ϕj
因此优化
f
M
S
E
f_{MSE}
fMSE等价于优化上式中的
g
M
S
E
(
S
,
j
)
=
ϕ
j
T
Ψ
S
−
2
ϕ
j
1
+
ϕ
j
T
Ψ
S
−
1
ϕ
j
g_{MSE}(\mathcal S, j)=\frac{\phi_j^T\Psi_\mathcal S^{-2}\phi_j}{1+\phi_j^T\Psi_\mathcal S^{-1}\phi_j}
gMSE(S,j)=1+ϕjTΨS−1ϕjϕjTΨS−2ϕj
对偶观测矩阵
Ψ
=
Φ
T
Φ
+
ϵ
I
\Psi=\Phi^T\Phi+\epsilon I
Ψ=ΦTΦ+ϵI
当传感器节点比n小时(n是原始向量的维度),
Φ
T
Φ
\Phi^T\Phi
ΦTΦ是奇异矩阵,加入
ϵ
I
\epsilon I
ϵI可以解决这个问题。
计算成本
Conclusion
贪心法可以找到传感器选择问题的near-optimal 解,组贪婪方法可以对贪婪方法的解做出提升,作者使用Monte-Carlo 模拟验证组贪婪方法。
- 组贪婪法比其它传统方法如common greedy, convex relaxtion, FrameSense, SpareSense。
- 组规模的越大会带来更好的解,如果足够大,则可以得到最优解。
- 当组比某一个值大时,继续增加组大小,相比于解质量的提升,计算成本的增加更加不可接受。而且此时解和最优解相差无几
- Group Greedy也适合相关噪声的情况,而且噪声水平越大,相比于Common Greedy,Group Greedy 的性能提升越大。