GFDM算法的实现与优化
1. GFDM算法概述
在处理GFDM算法时,仅观察方程,一些程序员可能会在处理g [.]的模加载操作时陷入困境,或者尝试在C代码中使用“%”来实现模运算,期望编译器能够处理。不过,通过绘制处理图,我们可以推断出所需的处理过程,并完全避免模运算。
GFDM滤波由三个相互独立的“for”循环组成。由于这些循环相互独立,它们可以自由互换,这能有效改变处理顺序以满足程序员的需求。但需要注意的是,在使用向量机时,循环顺序对内存和处理器利用率有显著影响。
2. 算法精度要求与考虑
2.1 误差预算与数据类型
在实际应用中,不能想当然地直接使用现成的处理器来编程内核而不考虑量化噪声导致的数据降级。标准化组织定义了误差预算,该预算可分配到不同的处理步骤。
我们关注的是确定表示输入和输出数据所需的位数,以及存储中间结果的处理器累加器所需的位长。输入和输出使用相同的数据类型(位长)以简化内存访问,而累加器则假设使用不同的数据类型。我们用databits和ACCbits分别表示输入/输出和累加器的位长。
2.2 测试床设置
以下是测试床的设置流程:
1. 随机比特流映射到复杂QAM符号。
2. QAM符号映射到方程[1.1]中的dk,并保留dk的副本作为参考。
3. 使用IDFT对QAM符号进行GFDM调制,并根据图1.9所示的算法进行滤波。
4. 解调时,使用一组新的系数重复图1.9中的算法以反转第一次滤波,然后进行DFT。
5. 成功解调后,将解调后的流与参考进行比较,并测量误差向量幅度(EVM)。
超级会员免费看
订阅专栏 解锁全文
657

被折叠的 条评论
为什么被折叠?



