首页 理论教育 算法在NMSE性能上的优化

算法在NMSE性能上的优化

时间:2023-06-17 理论教育 版权反馈
【摘要】:本节将通过NMSE性能进行仿真分析,验证算法的性能。图9-11LSTM-Attention CsiNet、Reduced LSTM-Attention CsiNet与主流算法的NMSE性能的比较此外,在相同的实验条件下,轻量级的Reduced LSTM-Attention CsiNet信道反馈系统的测试结果如图9-11和图9-12所示。对于室内场景,与其他主流算法相比,Reduced LSTM-Attention CsiNet的NMSE性能更好,其中曲线比CsiNet小1~3 d B。这是因为,FCN将提取的特征向量的大小从N维压缩到M维,导致一些特征信息丢失,所以轻量级网络Reduced LSTM-Attention CsiNet的性能不如LSTM-Attention CsiNet。

算法在NMSE性能上的优化

本节将通过NMSE性能进行仿真分析,验证算法的性能。仿真过程中,训练集、验证集和测试集个数分别为100 000、30 000和20 000,batch_size为K=200,epochs为1 000,学习率为0.001。此外,在压缩和解压缩模块的LSTM-Attention模块中分别设置6个LSTM单元

图9-11 LSTM-Attention CsiNet、Reduced LSTM-Attention CsiNet与主流算法的NMSE性能的比较(在室内条件下)(www.xing528.com)

此外,在相同的实验条件下,轻量级的Reduced LSTM-Attention CsiNet信道反馈系统的测试结果如图9-11和图9-12所示。对于室内场景,与其他主流算法相比,Reduced LSTM-Attention CsiNet的NMSE性能更好,其中曲线比CsiNet小1~3 d B。对于室外场景,Reduced LSTM-Attention CsiNet的性能也较好,比CsiNet的性能好0.5~2 d B。Reduced LSTM-Attention CsiNet的压缩和解压模块中的FCN作为一个跳转连接网络,保持LSTM-Attention模块输入和输出的维数不变,从而减少了网络中训练参数的数量,最终降低了反馈网络的计算复杂度

图9-12 LSTM-Attention CsiNet、Reduced LSTM-Attention CsiNet与主流算法的NMSE性能的比较(在室外条件下)

LSTM-Attention CsiNet和轻量级Reduced LSTM-Attention CsiNet两种网络的性能相比,后者要次于前者。这是因为,FCN将提取的特征向量的大小从N维压缩到M维,导致一些特征信息丢失,所以轻量级网络Reduced LSTM-Attention CsiNet的性能不如LSTM-Attention CsiNet。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈