首页 理论教育 贝叶斯正则化神经网络模型的权重改进

贝叶斯正则化神经网络模型的权重改进

时间:2023-05-19 理论教育 版权反馈
【摘要】:Lu Xu等提出了一种两层前馈神经网络的在线梯度法的理论有界性和收敛性分析,基于差分方程研究了参数序列的有界性和收敛性。吴微等人利用L1/2正则化方法进行神经网络权值训练,对比了BP神经网络、高阶神经网络、双并行前馈神经网络、Takagi-Sugeno模型。在后文叙述中分别运用熵权法和贝叶斯正则化法对初始权向量和目标误差值进行改进,运用改进后的参数输入神经网络,最终求得各指标的权重。

贝叶斯正则化神经网络模型的权重改进

在选择指标的赋权方法时,应注意两种极端倾向:一种是过分信赖统计和数学等定量方法,而忽视评价指标的主观定性分析;另一种是完全依赖专家意见,而抛弃科学的客观赋权方法。

客观赋权较为依赖样本数据,其权重值会随着数据的变化而改变;主观赋权虽然方法简单,但易受人为因素影响。而且这两种方法都存在着信息损失,所以为了最大程度地减少信息损失,使结果更趋于实际,必须采用组合赋权。对传统赋权方法进行改进的神经网络模型,该赋权方法在算法上优于传统的客观赋权方法,因此比传统赋权方法更可信。

神经网络是自20世纪80年代以来人工智能领域兴起的研究热点。神经网络实现了一个从输入到输出的映射功能,能够以任意精度逼近任何非线性连续函数,使得其特别适合于求解内部机制复杂的问题。(www.xing528.com)

本书主要利用神经网络训练权值优化,选取适当的学习方法,使得权值最优。Dario Baptista等开发出一套训练权重误差值最小的工具。Lu Xu等提出了一种两层前馈神经网络的在线梯度法的理论有界性和收敛性分析,基于差分方程研究了参数序列的有界性和收敛性。大多数文献是神经网络训练参数的改良,主要是选择适当的激活函数、网络层数、单元连接方式、单元数量等。吴微等人利用L1/2正则化方法进行神经网络权值训练,对比了BP神经网络、高阶神经网络、双并行前馈神经网络、Takagi-Sugeno模型。

针对本书输入参数,由于目标误差值和初始权向量两大参数的影响较大,因此首先对其进行改进。在后文叙述中分别运用熵权法和贝叶斯正则化法对初始权向量和目标误差值进行改进,运用改进后的参数输入神经网络,最终求得各指标的权重。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈