水下目标深度估计与高阶神经动力学关联记忆研究
1. 水下目标深度估计
在潜艇识别需求的背景下,对于水下目标深度的估计和跟踪问题展开了研究。采用的方法是将水下声学检测系统置于深海,这样做有两个重要目的:一是实现远距离检测,二是获取安静的环境。
对于接收到的水下声学数据,具体处理步骤如下:
1. 运用快速运行的广义相关时间延迟估计算法来估计时间延迟,该算法能满足精度要求。
2. 进行插值操作,进一步提高时间延迟的估计精度。
3. 基于处理后的时间延迟数据,对目标深度进行估计。
4. 通过滤波操作减少目标深度的估计误差,最终实现对目标深度的实时跟踪。
从模拟和湖泊实验的结果中,可以得出以下结论:
1. 快速运行的广义相关时间延迟估计算法具有原理简单、实时性能好且易于实现的优点。通过插值和滤波,时间延迟的估计精度可以控制在 10 微秒以内。
2. 时间延迟的估计精度对目标深度估计有很大影响,几微秒的时间延迟误差可能导致目标深度误差达到百分之几甚至几十。
3. 为了提高目标深度的估计精度,应尽可能提高接收到的水下声学信号的信噪比(SNR)。深海环境有利于提高 SNR,还可以通过过滤干扰噪声、放大目标的瞬态信号等方式进一步提高 SNR,从而实现更高的目标深度估计精度。
4. 在实时估计和跟踪移动目标深度时,单次目标深度估计可能会出现较大误差,但在经过滤波和消除无限点的处理后,一段时间内跟踪的目标深度轨迹有助于区分水面目标和水下目标。
5. 潜艇识别分为目标深度估计和船舶辐射噪声分析两个步骤,这种方法降低了潜艇识别的难度,有利于高效准确地识别潜艇。
下面是具体算法在不同维度下的性能表现表格:
| 算法相关指标 | 具体表现 |
| ---- | ---- |
| 时间延迟估计精度 | 可控制在 10 微秒以内 |
| 目标深度估计误差 | 约百分之三十 |
其处理流程可以用以下 mermaid 流程图表示:
graph LR
A[接收水下声学数据] --> B[广义相关时间延迟估计]
B --> C[插值提高精度]
C --> D[目标深度估计]
D --> E[滤波减少误差]
E --> F[实时跟踪目标深度]
2. 高阶神经动力学关联记忆
对于顺序模式的高阶神经动力学关联记忆问题,采用了统计方法进行研究。
许多处理静态模式的关联记忆神经网络模型已经从理论到应用进行了研究,但顺序模式的关联记忆在人脑建模和应用中也是一个重要话题。传统的顺序模式关联记忆模型存储容量较低,而高阶神经网络在许多应用中比传统网络更有效,不过由于其动力学分析的困难,高阶神经网络顺序模式关联记忆的存储容量一直未被明确。
在研究中,通过推广 Amari 的方法,对高阶神经网络的串扰噪声项之间的直接相关性进行了统计分析。结果表明,在 k = 1、2 和 3 维的情况下,存储容量分别为 0.263n、0.207 $\begin{pmatrix}n\2\end{pmatrix}$ 和 0.180 $\begin{pmatrix}n\3\end{pmatrix}$,其中 n 是神经元的数量,$\begin{pmatrix}n\k\end{pmatrix}$ 表示从 n 中选取 k 的组合数。一维情况的结果与 Meir 通过复制理论得到的结果 0.269n 以及 Kawamura 通过路径积分方法得到的结果 0.270n 相当一致,这表明高阶神经网络在关联能力上优于传统网络。
2.1 高阶相关关联记忆
- 高阶神经网络 :考虑由 n 个相互连接的神经元组成的传统模型,每个神经元的输出由以下公式给出:
-
传统模型输出公式:
- $u_i(t) = \sum_{j=1}^{n} w_{ij}x_j(t) - \theta_i$
- $x_i(t + 1) = \text{sgn}(u_i(t)) = \begin{cases}1 & u_i(t) > 0 \ -1 & u_i(t) \leq 0\end{cases}$
-
高阶神经元素的内部电位表示为:
- $u_i(t) = \sum_{j=1}^{n} w_{ij}x_j(t) + \sum_{j=1}^{n - 1} \sum_{k=j + 1}^{n} w_{ijk}x_j(t)x_k(t) + \cdots - \theta_i$
-
进一步简化为:
- $u_i(t) = \sum_{k’ = 1}^{k} \sum_{[L_{k’}]} w_{i[L_{k’}]}x_{l_1}(t)x_{l_2}(t) \cdots x_{l_{k’}}(t) - \theta_i$
-
在本文中使用的模型为:
- $u_i(t) = \sum_{[L_k]} w_{i[L_k]}x_{l_1}(t) \cdots x_{l_k}(t) - \theta_i$
- $x_i(t + 1) = \text{sgn}(u_i(t))$
-
顺序模式的记忆和回忆
:
1. 顺序模式被存储在网络中,例如模式序列 “A”,“B”,“C” 被存储在关联记忆系统中。
2. 输入一个与任何存储模式相似的模式或带有噪声的存储模式,如输入带有噪声的模式 “A”。
3. 经过足够多的转换后,系统会回忆起存储的顺序模式。
顺序模式表示为:$S_1 \to S_2 \to \cdots \to S_m \to S_1 \to \cdots$,其中 $S_{\mu} = (s_{\mu}^1, \cdots, s_{\mu}^n)^T$,$s_{\mu}^i = +1$ 或 $-1$,每个元素随机选择。
高阶相关关联记忆的每个权重定义为:$w_{i[L_k]} = \frac{1}{\begin{pmatrix}n\k\end{pmatrix}} \sum_{\mu = 1}^{m} s_{\mu + 1}^i s_{\mu}^{[l_1]}s_{\mu}^{[l_2]} \cdots s_{\mu}^{[l_k]}$。
为了分析网络的动力学,对模型做了以下三个假设:
1. 顺序模式的每个元素 $s_{\mu}^i$ 随机选择,即每个元素为 1 或 -1 的概率为 0.5。
2. m 和 n 足够大。
3. 不失一般性,令 $\theta_i = 0$。
定义高阶神经网络的模式比率为:$r_k = \frac{m}{\begin{pmatrix}n\k\end{pmatrix}}$,模型的容量定义为临界模式比率。
给定一个存储模式 $S_{\alpha}$,第 i 个元素的输出为:$x_i = \text{sgn}(\sum_{L_k} w_{i,[L_k]}s_{\alpha}^{[L_k]}) = \text{sgn}(s_{\alpha}^i + N_i)$,其中 $N_i$ 是噪声(串扰)项。
广义方向余弦(相关性)$a_t^k$ 定义为:$a_t^k = \frac{1}{\begin{pmatrix}n\k\end{pmatrix}} \sum_{[L_k]} s_{\alpha}^{[L_k]}x_t^{[L_k]}$。
其记忆和回忆流程可以用以下 mermaid 流程图表示:
graph LR
A[存储顺序模式] --> B[输入相似或带噪声模式]
B --> C[多次转换]
C --> D[回忆存储的顺序模式]
不同维度下存储容量的具体数值如下表所示:
| 维度(k) | 存储容量 |
| ---- | ---- |
| 1 | 0.263n |
| 2 | 0.207 $\begin{pmatrix}n\2\end{pmatrix}$ |
| 3 | 0.180 $\begin{pmatrix}n\3\end{pmatrix}$ |
2.2 方向余弦动力学的统计分析
通过推广 Amari 的方法,对关联记忆的方向余弦动力学进行了分析。
首先,方向余弦 $a_{t + 1}^k$ 近似表示为:
$a_{t + 1}^k = \frac{1}{\begin{pmatrix}n\k\end{pmatrix}} \sum_{[L_k]} s_{\alpha + 1}^{[L_k]}x_{t + 1}^{[L_k]} \approx (\frac{1}{n} \sum_{i = 1}^{n} s_{\alpha + 1}^i x_{t + 1}^i)^k = (E[s_{\alpha + 1}^i x_{t + 1}^i])^k$
其中,$x_{t + 1}^i$ 表示为:
$x_{t + 1}^i = \text{sgn}[s_{\alpha + 1}^i a_t^k + N_t^i]$
$N_t^i = \frac{1}{\begin{pmatrix}n\k\end{pmatrix}} \sum_{\beta \neq \alpha} s_{\beta + 1}^i \sum_{i \notin [L_k]} s_{\beta}^{[L_k]}x_t^{[L_k]}$
根据 Amari 和 Maginu 理论,假设噪声项 $N_t^i$ 服从均值为 0、方差为 $\sigma_t^2$ 的正态分布。则有:
$a_{t + 1}^k = F(\frac{a_t^k}{\sigma_t})^k$
$F(x) = \frac{1}{\sqrt{2\pi}} \int_{-x}^{x} \exp(-\frac{t^2}{2}) dt$
$\sigma_t^2$ 的计算如下:
$\sigma_t^2 = E[(N_t^i)^2] = \frac{1}{\begin{pmatrix}n\k\end{pmatrix}^2} E[\sum_{\beta \neq \alpha} \sum_{\beta’ \neq \alpha} \sum_{[L_k]} \sum_{[L_{k}’]} s_{\beta + 1}^i s_{\beta’ + 1}^i s_{\beta}^{[L_k]}x_t^{[L_k]} s_{\beta’}^{[L_{k}’]}x_t^{[L_{k}’]}]$
经过一系列推导和假设,得到不同 k 值下 $\sigma_t^2$ 的近似表达式:
| k 值 | $\sigma_t^2$ 近似表达式 |
| ---- | ---- |
| 1 | $\sigma_t^2 = r + mb$ |
| 2 | $\sigma_t^2 = r + \frac{4m}{n} b + 3mb^2$ |
| 3 | $\sigma_t^2 = r + \frac{m(18n^2 + 12n + 4)}{n^4} b + \frac{m(27n + 12)}{n^2} b^2 + 15mb^3$ |
其中,$b = E[s_{\beta}^t x_t^j s_{\beta}^{j’} x_t^{j’} | j \neq j’]$。通过推广 Amari 的方法计算 b,由于空间限制省略详细推导,得到:
$\begin{cases}
\sigma_t^2 = r + 4p(\bar{a})^2 & \text{for } k = 1 \
\sigma_t^2 \approx r & \text{for } k \geq 2
\end{cases}$
$\bar{a} = \frac{a_{t - 1}^k}{\sigma_{t - 1}}$
$p(u) = \frac{1}{\sqrt{2\pi}} \exp(-\frac{u^2}{2})$
从上述结果可以得到方向余弦的动力学,下图展示了临界方向余弦和记忆容量的关系:
graph LR
A[输入初始方向余弦 $a_0^k$] --> B[计算 $a_{t + 1}^k$]
B --> C{是否达到平衡}
C -- 是 --> D[确定记忆容量 $r_c$]
C -- 否 --> B
从图中可以观察到,k = 1、2 和 3 时的记忆容量分别为 0.263、0.207 和 0.180,其中 k = 1 时的结果与 Meir 通过复制理论得到的结果 0.269 相当一致。
3. 总结
综合来看,在水下目标深度估计方面,通过将水下声学检测系统置于深海,并采用快速运行的广义相关时间延迟估计算法结合插值和滤波等操作,能够实现对水下目标深度的有效估计和实时跟踪,且在提高信噪比的情况下可以进一步提高估计精度,有助于潜艇识别。
在高阶神经动力学关联记忆方面,采用统计方法对高阶神经网络的串扰噪声项之间的直接相关性进行分析,得出了不同维度下的存储容量。结果表明,高阶神经网络在关联能力上优于传统网络,为顺序模式的关联记忆提供了更有效的解决方案。
整体研究为水下目标识别和神经动力学关联记忆领域提供了有价值的理论和方法,未来可在这些基础上进一步优化算法,提高性能,拓展应用范围。
水下目标深度与神经动力学研究
超级会员免费看
7740

被折叠的 条评论
为什么被折叠?



