95、水下目标深度估计与高阶神经动力学关联记忆研究

水下目标深度与神经动力学研究

水下目标深度估计与高阶神经动力学关联记忆研究

1. 水下目标深度估计

在潜艇识别需求的背景下,对于水下目标深度的估计和跟踪问题展开了研究。采用的方法是将水下声学检测系统置于深海,这样做有两个重要目的:一是实现远距离检测,二是获取安静的环境。

对于接收到的水下声学数据,具体处理步骤如下:
1. 运用快速运行的广义相关时间延迟估计算法来估计时间延迟,该算法能满足精度要求。
2. 进行插值操作,进一步提高时间延迟的估计精度。
3. 基于处理后的时间延迟数据,对目标深度进行估计。
4. 通过滤波操作减少目标深度的估计误差,最终实现对目标深度的实时跟踪。

从模拟和湖泊实验的结果中,可以得出以下结论:
1. 快速运行的广义相关时间延迟估计算法具有原理简单、实时性能好且易于实现的优点。通过插值和滤波,时间延迟的估计精度可以控制在 10 微秒以内。
2. 时间延迟的估计精度对目标深度估计有很大影响,几微秒的时间延迟误差可能导致目标深度误差达到百分之几甚至几十。
3. 为了提高目标深度的估计精度,应尽可能提高接收到的水下声学信号的信噪比(SNR)。深海环境有利于提高 SNR,还可以通过过滤干扰噪声、放大目标的瞬态信号等方式进一步提高 SNR,从而实现更高的目标深度估计精度。
4. 在实时估计和跟踪移动目标深度时,单次目标深度估计可能会出现较大误差,但在经过滤波和消除无限点的处理后,一段时间内跟踪的目标深度轨迹有助于区分水面目标和水下目标。
5. 潜艇识别分为目标深度估计和船舶辐射噪声分析两个步骤,这种方法降低了潜艇识别的难度,有利于高效准确地识别潜艇。

下面是具体算法在不同维度下的性能表现表格:
| 算法相关指标 | 具体表现 |
| ---- | ---- |
| 时间延迟估计精度 | 可控制在 10 微秒以内 |
| 目标深度估计误差 | 约百分之三十 |

其处理流程可以用以下 mermaid 流程图表示:

graph LR
    A[接收水下声学数据] --> B[广义相关时间延迟估计]
    B --> C[插值提高精度]
    C --> D[目标深度估计]
    D --> E[滤波减少误差]
    E --> F[实时跟踪目标深度]
2. 高阶神经动力学关联记忆

对于顺序模式的高阶神经动力学关联记忆问题,采用了统计方法进行研究。

许多处理静态模式的关联记忆神经网络模型已经从理论到应用进行了研究,但顺序模式的关联记忆在人脑建模和应用中也是一个重要话题。传统的顺序模式关联记忆模型存储容量较低,而高阶神经网络在许多应用中比传统网络更有效,不过由于其动力学分析的困难,高阶神经网络顺序模式关联记忆的存储容量一直未被明确。

在研究中,通过推广 Amari 的方法,对高阶神经网络的串扰噪声项之间的直接相关性进行了统计分析。结果表明,在 k = 1、2 和 3 维的情况下,存储容量分别为 0.263n、0.207 $\begin{pmatrix}n\2\end{pmatrix}$ 和 0.180 $\begin{pmatrix}n\3\end{pmatrix}$,其中 n 是神经元的数量,$\begin{pmatrix}n\k\end{pmatrix}$ 表示从 n 中选取 k 的组合数。一维情况的结果与 Meir 通过复制理论得到的结果 0.269n 以及 Kawamura 通过路径积分方法得到的结果 0.270n 相当一致,这表明高阶神经网络在关联能力上优于传统网络。

2.1 高阶相关关联记忆
  • 高阶神经网络 :考虑由 n 个相互连接的神经元组成的传统模型,每个神经元的输出由以下公式给出:
  • 传统模型输出公式:
    • $u_i(t) = \sum_{j=1}^{n} w_{ij}x_j(t) - \theta_i$
    • $x_i(t + 1) = \text{sgn}(u_i(t)) = \begin{cases}1 & u_i(t) > 0 \ -1 & u_i(t) \leq 0\end{cases}$
  • 高阶神经元素的内部电位表示为:
    • $u_i(t) = \sum_{j=1}^{n} w_{ij}x_j(t) + \sum_{j=1}^{n - 1} \sum_{k=j + 1}^{n} w_{ijk}x_j(t)x_k(t) + \cdots - \theta_i$
  • 进一步简化为:
    • $u_i(t) = \sum_{k’ = 1}^{k} \sum_{[L_{k’}]} w_{i[L_{k’}]}x_{l_1}(t)x_{l_2}(t) \cdots x_{l_{k’}}(t) - \theta_i$
  • 在本文中使用的模型为:
    • $u_i(t) = \sum_{[L_k]} w_{i[L_k]}x_{l_1}(t) \cdots x_{l_k}(t) - \theta_i$
    • $x_i(t + 1) = \text{sgn}(u_i(t))$
  • 顺序模式的记忆和回忆
    1. 顺序模式被存储在网络中,例如模式序列 “A”,“B”,“C” 被存储在关联记忆系统中。
    2. 输入一个与任何存储模式相似的模式或带有噪声的存储模式,如输入带有噪声的模式 “A”。
    3. 经过足够多的转换后,系统会回忆起存储的顺序模式。

顺序模式表示为:$S_1 \to S_2 \to \cdots \to S_m \to S_1 \to \cdots$,其中 $S_{\mu} = (s_{\mu}^1, \cdots, s_{\mu}^n)^T$,$s_{\mu}^i = +1$ 或 $-1$,每个元素随机选择。

高阶相关关联记忆的每个权重定义为:$w_{i[L_k]} = \frac{1}{\begin{pmatrix}n\k\end{pmatrix}} \sum_{\mu = 1}^{m} s_{\mu + 1}^i s_{\mu}^{[l_1]}s_{\mu}^{[l_2]} \cdots s_{\mu}^{[l_k]}$。

为了分析网络的动力学,对模型做了以下三个假设:
1. 顺序模式的每个元素 $s_{\mu}^i$ 随机选择,即每个元素为 1 或 -1 的概率为 0.5。
2. m 和 n 足够大。
3. 不失一般性,令 $\theta_i = 0$。

定义高阶神经网络的模式比率为:$r_k = \frac{m}{\begin{pmatrix}n\k\end{pmatrix}}$,模型的容量定义为临界模式比率。

给定一个存储模式 $S_{\alpha}$,第 i 个元素的输出为:$x_i = \text{sgn}(\sum_{L_k} w_{i,[L_k]}s_{\alpha}^{[L_k]}) = \text{sgn}(s_{\alpha}^i + N_i)$,其中 $N_i$ 是噪声(串扰)项。

广义方向余弦(相关性)$a_t^k$ 定义为:$a_t^k = \frac{1}{\begin{pmatrix}n\k\end{pmatrix}} \sum_{[L_k]} s_{\alpha}^{[L_k]}x_t^{[L_k]}$。

其记忆和回忆流程可以用以下 mermaid 流程图表示:

graph LR
    A[存储顺序模式] --> B[输入相似或带噪声模式]
    B --> C[多次转换]
    C --> D[回忆存储的顺序模式]

不同维度下存储容量的具体数值如下表所示:
| 维度(k) | 存储容量 |
| ---- | ---- |
| 1 | 0.263n |
| 2 | 0.207 $\begin{pmatrix}n\2\end{pmatrix}$ |
| 3 | 0.180 $\begin{pmatrix}n\3\end{pmatrix}$ |

2.2 方向余弦动力学的统计分析

通过推广 Amari 的方法,对关联记忆的方向余弦动力学进行了分析。

首先,方向余弦 $a_{t + 1}^k$ 近似表示为:
$a_{t + 1}^k = \frac{1}{\begin{pmatrix}n\k\end{pmatrix}} \sum_{[L_k]} s_{\alpha + 1}^{[L_k]}x_{t + 1}^{[L_k]} \approx (\frac{1}{n} \sum_{i = 1}^{n} s_{\alpha + 1}^i x_{t + 1}^i)^k = (E[s_{\alpha + 1}^i x_{t + 1}^i])^k$

其中,$x_{t + 1}^i$ 表示为:
$x_{t + 1}^i = \text{sgn}[s_{\alpha + 1}^i a_t^k + N_t^i]$
$N_t^i = \frac{1}{\begin{pmatrix}n\k\end{pmatrix}} \sum_{\beta \neq \alpha} s_{\beta + 1}^i \sum_{i \notin [L_k]} s_{\beta}^{[L_k]}x_t^{[L_k]}$

根据 Amari 和 Maginu 理论,假设噪声项 $N_t^i$ 服从均值为 0、方差为 $\sigma_t^2$ 的正态分布。则有:
$a_{t + 1}^k = F(\frac{a_t^k}{\sigma_t})^k$
$F(x) = \frac{1}{\sqrt{2\pi}} \int_{-x}^{x} \exp(-\frac{t^2}{2}) dt$

$\sigma_t^2$ 的计算如下:
$\sigma_t^2 = E[(N_t^i)^2] = \frac{1}{\begin{pmatrix}n\k\end{pmatrix}^2} E[\sum_{\beta \neq \alpha} \sum_{\beta’ \neq \alpha} \sum_{[L_k]} \sum_{[L_{k}’]} s_{\beta + 1}^i s_{\beta’ + 1}^i s_{\beta}^{[L_k]}x_t^{[L_k]} s_{\beta’}^{[L_{k}’]}x_t^{[L_{k}’]}]$

经过一系列推导和假设,得到不同 k 值下 $\sigma_t^2$ 的近似表达式:
| k 值 | $\sigma_t^2$ 近似表达式 |
| ---- | ---- |
| 1 | $\sigma_t^2 = r + mb$ |
| 2 | $\sigma_t^2 = r + \frac{4m}{n} b + 3mb^2$ |
| 3 | $\sigma_t^2 = r + \frac{m(18n^2 + 12n + 4)}{n^4} b + \frac{m(27n + 12)}{n^2} b^2 + 15mb^3$ |

其中,$b = E[s_{\beta}^t x_t^j s_{\beta}^{j’} x_t^{j’} | j \neq j’]$。通过推广 Amari 的方法计算 b,由于空间限制省略详细推导,得到:
$\begin{cases}
\sigma_t^2 = r + 4p(\bar{a})^2 & \text{for } k = 1 \
\sigma_t^2 \approx r & \text{for } k \geq 2
\end{cases}$
$\bar{a} = \frac{a_{t - 1}^k}{\sigma_{t - 1}}$
$p(u) = \frac{1}{\sqrt{2\pi}} \exp(-\frac{u^2}{2})$

从上述结果可以得到方向余弦的动力学,下图展示了临界方向余弦和记忆容量的关系:

graph LR
    A[输入初始方向余弦 $a_0^k$] --> B[计算 $a_{t + 1}^k$]
    B --> C{是否达到平衡}
    C -- 是 --> D[确定记忆容量 $r_c$]
    C -- 否 --> B

从图中可以观察到,k = 1、2 和 3 时的记忆容量分别为 0.263、0.207 和 0.180,其中 k = 1 时的结果与 Meir 通过复制理论得到的结果 0.269 相当一致。

3. 总结

综合来看,在水下目标深度估计方面,通过将水下声学检测系统置于深海,并采用快速运行的广义相关时间延迟估计算法结合插值和滤波等操作,能够实现对水下目标深度的有效估计和实时跟踪,且在提高信噪比的情况下可以进一步提高估计精度,有助于潜艇识别。

在高阶神经动力学关联记忆方面,采用统计方法对高阶神经网络的串扰噪声项之间的直接相关性进行分析,得出了不同维度下的存储容量。结果表明,高阶神经网络在关联能力上优于传统网络,为顺序模式的关联记忆提供了更有效的解决方案。

整体研究为水下目标识别和神经动力学关联记忆领域提供了有价值的理论和方法,未来可在这些基础上进一步优化算法,提高性能,拓展应用范围。

混合动力汽车(HEV)模型的Simscape模型(Matlab代码、Simulink仿真实现)内容概要:本文档介绍了一个混合动力汽车(HEV)的Simscape模型,该模型通过Matlab代码和Simulink仿真工具实现,旨在对混合动力汽车的动力系统进行建模仿真分析。模型涵盖了发动机、电机、电池、传动系统等关键部件,能够模拟车辆在不同工况下的能量流动控制策略,适用于动力系统设计、能耗优化及控制算法验证等研究方向。文档还提及该资源属于一个涵盖多个科研领域的MATLAB仿真资源包,涉及电力系统、机器学习、路径规划、信号处理等多个技术方向,配套提供网盘下载链接,便于用户获取完整资源。; 适合人群:具备Matlab/Simulink使用基础的高校研究生、科研人员及从事新能源汽车系统仿真的工程技术人员。; 使用场景及目标:①开展混合动力汽车能量管理策略的研究仿真验证;②学习基于Simscape的物理系统建模方法;③作为教学案例用于车辆工程或自动化相关课程的实践环节;④其他优化算法(如智能优化、强化学习)结合,实现控制策略的优化设计。; 阅读建议:建议使用者先熟悉Matlab/Simulink及Simscape基础操作,结合文档中的模型结构逐步理解各模块功能,可在此基础上修改参数或替换控制算法以满足具体研究需求,同时推荐访问提供的网盘链接获取完整代码示例文件以便深入学习调试。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值