首页 理论教育 iWM算法的改进与问题解决

iWM算法的改进与问题解决

时间:2023-11-09 理论教育 版权反馈
【摘要】:原因在于式是对输出变量y的隶属函数值进行了加权平均,而式是直接对输出变量y进行了加权平均。下面结合实际数据说明这种改进的原因,假设输出数据y在理想的情况下是在{-3,3}之间,由于某种原因使得y样本集中混入一个大的干扰数据(如30),那么用式很难加权平均掉这个大的干扰数据。

iWM算法的改进与问题解决

从上式可以看出,iWM算法为了提取某条规则使用了所有样本数据都参与选举的原理,比早期的WM算法仅用一个样本数据选择一条规则有了改进,这种遍历保证了模糊规则库空间的完备性。但从鲁棒性角度看,式(2-40)和式(2-41)改成下面的形式更合理

可用下式决定结论变量选择的最优模糊集

avBj∗≥avBj (2-45)实际上,式(2-44)和式(2-45)与后面提到的DM算法以及遍历所有的输出模糊集空间是完全一样的。(www.xing528.com)

式(2-40)、式(2-41)和式(2-44)、式(2-45)都完成了结论变量最优模糊集的选择问题,但后者比前者具有更好的鲁棒性。原因在于式(2-44)是对输出变量yp的隶属函数值进行了加权平均,而式(2-40)是直接对输出变量yp进行了加权平均。下面结合实际数据说明这种改进的原因,假设输出数据yp在理想的情况下是在{-3,3}之间,由于某种原因使得yp样本集中混入一个大的干扰数据(如30),那么用式(2-40)很难加权平均掉这个大的干扰数据。但用式(2-44)却能做得很好,因为各个数据都被隶属化到[0,1]之间等同地位,即使样本集中混入少量干扰数据,也能被其他好数据有效地屏蔽。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈