首页 理论教育 HSI检测系统的分类与预测方法优化

HSI检测系统的分类与预测方法优化

时间:2023-06-27 理论教育 版权反馈
【摘要】:经过研究人员多年的努力,目前高光谱图像分类和预测领域已形成了一系列技术与算法。常见的分类器有最大似然分类法、贝叶斯分类法、决策树、神经网络、SVM等。因此基于SVM的回归分析和函数拟合与神经网络、最小二乘、多元线性回归、灰色理论预测模型等相比,通常具有更高的预测精度和预测结果。SVM是统计学习理论中最年轻的部分,目前该理论仍然在不断发展之中。

HSI检测系统的分类与预测方法优化

经过研究人员多年的努力,目前高光谱图像分类和预测领域已形成了一系列技术与算法。其中基于高光谱数据本身统计特性的方法可以分为两大类,即有监督分类与无监督分类(有时候又成为聚类)。

无监督分类方法是通过计算机对图像进行集聚统计分析的方法。根据待分类样本特征参数的统计特征,建立决策规则来进行分类。而无需事先知道类别特征,自发地发现数据中蕴含的层次,即可实现对数据的分类。虽然相较于有监督分类,通常无监督分类的效果往往欠佳;但由于其不需要人工干预,易于实现与应用,已成为一种常用的分类方法。常见的这类算法有回归分析与K均值聚类法。

监督分类方法是以建立统计识别函数为理论基础,依据典型样本训练方法进行分类的技术。即根据已知训练区提供的样本,通过选择特征参数,求出特征参数作为决策规则,建立判别函数以对各待分类影像进行的图像分类。这类方法的关键在于利用有限的训练样本信息,形成最优的分类决策面。事实上对于所有监督分类方法其效果都最终体现在分类决策面的划分上。常见的分类器有最大似然分类法、贝叶斯分类法、决策树神经网络、SVM等。

1.多元线性回归

多元线性回归法,是研究一个因变量与两个或两个以自变量的回归。事实上,一种现象常常是与多个因素相联系的,由多个自变量的最优组合共同来预测或估计因变量,比只用一个自变量进行预测或估计更有效,更符合实际。因此利用多元线性回归建立多个变量之间线性或非线性数学模型数量关系式能反映一种现象或事物的数量依多种现象或事物的数量的变动而相应地变动的规律。可采用最小二乘法求出多元线性回归模型中的参数,即在其数学模型所属的函数类中找一个近似的函数,使得这个近似函数在已知的对应数据上尽可能和真实函数接近。

2.主成分回归

主成分回归是一种常用的多元统计分析,它能对数据集进行简化。主成分回归是由主成分分析法构造回归模型,即把各主成分作为新自变量代替原来自变量做回归分析。主成分分析主要是对相互相关的一组数据,通过正交变换使其变为一组相互无关的变量的方法。在几何上这个变换相当于在多维向量空间进行坐标旋转以及平移,在代数上这个变换等价于求解一组变量的协方差矩阵的特征值后,变换后得到新的变量坐标轴,然后根据变量中所包含数据的方差特征值大小顺序把这些变量称为第一主成分、第二主成分等。主成分分析的中心思想是将数据降维,将原变量进行转换,使几个新变量小于原变量个数是原来变量的线性组合,以去除相关数据中的冗余信息。

3.PLS回归

PLS回归是近年来发展起来的一种多元统计方法。方法的数学基础是将自变量数据光谱矩阵一次性分解完成,获得互不相干的新的数据向量即主成分,以消除无用的噪声信息,然后再对新的数据向量建立回归模型。而同时考虑到浓度矩阵中同样也含有噪声信息,在分解光谱矩阵时同时考虑对浓度矩阵的影响。因此,PLS回归分析的基本思想是一种逐步回归逐步提取光谱数据中的成分,逐步添加变量信息不全时,逐步检验模型的显著性情况,一旦模型达到规定的显著性要求就停止计算。判别分析是,根据若干因素对预测对象进行分类的一种方法,通过分析能建立用于定性鉴别分析的数学模型。

4.判别分析

判别分析是一种有监督的模式识别方法,需要将一定数量已知类别样本提交给计算机进行训练,计算机经过训练后则可识别未知样本类别。在多元统计分析中,常用的判别分析有马氏距离判别法、贝叶斯判别法、费歇尔判别法、模糊判别法、最近邻法、人工神经网络法等。马氏距离不受量纲的影响,由标准化数据和中心化数据(即原始数据与均值之差)计算出的两点之间的马氏距离相同。此外马氏距离还具有排除变量之间的相关性的干扰等优点。

5.SVM(www.xing528.com)

统计学习理论,是一种专门研究小样本情况下机器学习规律的基本理论和数学构架,与传统统计学相比,该理论针对小样本统计问题构建了一套新的理论体系,该理论体系不仅考虑了渐近性能的要求,而且力求在现有有限信息的条件下获得最优结果,是小样本统计估计和预测学习的最佳理论。SVM,是由统计学习理论发展起来的机器学习算法,它以结构风险最小化角度保证了模型的最大泛化能力。因此基于SVM的回归分析和函数拟合与神经网络、最小二乘、多元线性回归、灰色理论预测模型等相比,通常具有更高的预测精度和预测结果。回归分析和函数拟合与最小二乘法、神经网络、灰色模型等模型相比,往往具有更高的预测精度和预测效果。SVM是统计学习理论中最年轻的部分,目前该理论仍然在不断发展之中。SVM的基本思想来自于线性判别最优分类面,而所谓的最优分类面不仅要求分类面能将两类样本零错误分开,而且要使两类样本的分类间隔最大,如图13-3所示。最优分类面的一个最直接的优点就是能提高预测能力,降低分类错误率。

978-7-111-58430-8-Chapter13-3.jpg

图13-3 普通分类面和最优分类面

支持向量回归的基本思想就是通过一个非线性映射模型将数据映射到高维空间中去,并在这个空间上进行线性回归。

6.人工神经网络

人工神经网络,是近年来发展起来的非常热门的交叉学科,它是建立在现代神经科学研究成果基础之上的一种数学模型,在一定程度上能够模拟人脑神经系统的活动过程。与其他传统数据分析方法相比,人工神经网络具有自学习、适用于处理非线性问题、自适应学习能力、集体运算能力、较强的容错性。人工神经网络按学习策略可分为有监督的人工神经网络和无监督的人工神经网络。由于有监督的人工神经网络与无监督的人工神经网络相比具有运算速度快、精度高等特点,解决了多层网络的训练问题,使得许多复杂的信息处理问题都可以通过多层人工神经网络去解决。BP神经网络是在神经网络诸多算法中研究和应用最多的方法,主要采用误差反向传播算法,可以逼近任意连续函数,具有很强的非线性映射逼近能力和预测能理。此外,该方法极易实现。

7.深度学习

近几年来深度学习是机器学习领域的科学家们在神经网络方面取得的重大突破。

早在1989年,Kolmogorov就曾用波包及傅里叶分析的思想证明了神经网络方法的巨大潜能。依据他的证明,3层的神经网络即可拟合有限维空间下任意映射函数,只要隐层神经元数目足够多,每个神经元的激活函数适当并且神经元之间的连接权值被妥当地设置。然而由于当时的网络训练算法并不成熟,被认为很有前途的反向传播算法在3层以上的深度网络中表现得非常糟糕。再加上20世纪80年代后期SVM这支劲旅的出现,神经网络的相关算法研究一度被搁置。直至2006年Hinton与Bengio等人在受限玻尔兹曼机、自动编码机上的重大突破,人们的视野才重新回到相关领域上来。

该理论给神经网络方法带来了一次革命,并使得神经网络重新回到人们的视野之中。其创新之处主要在于将神经网络模型扩展到前所未及的层数,往往会达到7、8乃至10层以上。而传统的,基于后向传播算法的多层神经网络往往不会多于4层。并且深度学习在高光谱检测领域得到了很好的发展。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈