何时使用切比雪夫张量与深度神经网络
在函数逼近的领域中,切比雪夫张量(CTs)和深度神经网络(DNNs)是两种常用的方法。它们各自有着独特的性质和适用场景,下面将对这两种方法进行详细分析。
1. 精度提升与维度问题
在使用某些方法时,精度提升可能会陷入停滞。对于深度神经网络(DNNs)而言,即便理论上随着样本点数趋于无穷,误差可能收敛到零,但实际收敛速度极慢,难以真正提升代理模型的质量。这与切比雪夫张量(CTs)的准指数收敛所呈现的显著误差衰减形成鲜明对比。
此外,降低DNNs逼近误差并非仅仅增加函数采样次数就能实现,而是需要架构与适当数量采样点的正确组合。这使得在许多应用中,DNNs的使用比CTs更为复杂。例如,在市场动荡期间,如果关键计算中使用的代理函数失效,若使用CTs,只需相对少量地增加采样点;而若使用DNNs,则可能需要寻找符合要求的新架构和新采样点集。
在选择逼近方法时,函数 $f$ 输入域的维度是一个重要考虑因素。使用CTs(实际上任何张量)时,主要挑战之一是维度灾难。对于每个维度固定数量的切比雪夫点,切比雪夫网格的大小会随着张量维度的增加呈指数增长。这意味着CTs的网格点数越多,构建代理模型所需的计算量就越大。DNNs也受维度灾难影响,但程度相对较小。
1.1 全切比雪夫张量
假设要进行一项数值计算,需对定价函数 $f$ 进行1,000,000次定价以计算风险指标。若用全CT替代 $f$ 进行计算,函数 $f$ 的维度不同会产生巨大差异。下表展示了切比雪夫网格大小随维度的增长以及计算增益的快速下降情况:
| 维度 | 网格大小 | 计算增益 |
| ---- | ---- | --
超级会员免费看
订阅专栏 解锁全文
7407

被折叠的 条评论
为什么被折叠?



