首页 理论教育 局部主分量分析:高维数据的流形学习方法

局部主分量分析:高维数据的流形学习方法

时间:2023-11-24 理论教育 版权反馈
【摘要】:,Xik是位于流形的一个局部线性平面上。,bd]∈RD×m是一个线性变换矩阵,并且满足正交归一化条件,即:其中,如果j=k,那么δjk=1,否则δjk=0。采用拉格朗日数乘法,可以求得平移向量的最小均方估计为:而线性变换矩阵的最小加权均方估计可以通过求解下列特征分解得到:其中,S可以表示为:式表明,线性变换矩阵B的最小均方估计是由S矩阵的最小特征值相对应的特征向量组成。

局部主分量分析:高维数据的流形学习方法

流形学习方法是基于局部线性假设的,即任一个数据点和它的k个近邻点是位于一个线性超平面上的。如果以i1,i2,…,ik来表示点Xi的k个近邻点的下标,那么点Xi和Xi1,Xi2,…,Xik是位于流形的一个局部线性平面上。所以对于这些点。可以采用一些线性变换的方法,将其映射到一个m维子空间(m≪D),即:

其中,Zj是点Xij在低维空间的映射结果,d是一个平移向量,B=[b1,b2,…,bd]∈RD×m是一个线性变换矩阵,并且满足正交归一化条件,即:

其中,如果j=k,那么δjk=1,否则δjk=0。

同样,也可以将Zj反投影到高维空间。

即点X′ij是点Xij通过映射和反映射变换后的像。从理论上说,一个点与其经过映射和反映射后的像是相同的,但是在实际应用中是存在误差的。即它们之间的误差为:

因此可以采用一个目标函数来估计线性变换矩阵和平移向量。该优化目标函数可以表示为:(www.xing528.com)

其中,wj表示对误差εj的赋权,1是一个全1向量。

采用拉格朗日数乘法,可以求得平移向量的最小均方估计为:

而线性变换矩阵的最小加权均方估计可以通过求解下列特征分解得到:

其中,S可以表示为:

式(4.16)表明,线性变换矩阵B的最小均方估计是由S矩阵的最小特征值相对应的特征向量组成。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈