首页 理论教育 掌纹掌脉融合识别技术与泛地铁环境的应用

掌纹掌脉融合识别技术与泛地铁环境的应用

时间:2023-09-20 理论教育 版权反馈
【摘要】:根据掌脉图像的纹线特征,借鉴现今非常成熟的指纹识别相关算法和经验,采用提取掌脉图像细节点的方法和点模式匹配算法,即提取出静脉纹路的关键细节点相关信息并用于身份识别。

掌纹掌脉融合识别技术与泛地铁环境的应用

根据掌脉图像的纹线特征,借鉴现今非常成熟的指纹识别相关算法和经验,采用提取掌脉图像细节点的方法和点模式匹配算法,即提取出静脉纹路的关键细节点相关信息并用于身份识别。

6.3.3.1 关键点提取

对于细化后图像上的任意点p1(p1像素点的灰度值),在8邻域图中其交叉数和8邻域纹线点数分别定义为:

遍历细化后图像中的每一个像素点,计算其cn(p1)和sn(p1),根据下面的条件判据即可得到所有的端点和分支点

当p1=1、cn(p1)=1且sn( p1)=1时,细节特征点p1为端点。

当p1=1、cn(p1)= 3且sn(p1)= 3时,细节特征点p1为三叉点。

当p1=1、cn(p1)= 4且sn(p1)=4时,细节特征点p1为四叉点。

6.3.3.2 匹配识别

本节采用较为成熟的点匹配算法提取的关键点序列进行匹配识别。点模式匹配算法是假设通过某些变换(如平移变换、伸缩变换、旋转变换)把两个点集中的对应点匹配起来。设点模式匹配的两个点集P和Q,其中P从第一幅图像中抽取,有k个点特征构成,P={P1,P2,…,Pk };Q从第二幅图像中抽取,由l个点特征构成,Q={Q1,Q2,…,Ql}。它们之间的匹配就是找到一个校准函数H(tx,ty,s,θ),以使两个点集有最大数量点对存在稳定的一一对应关系,即H(Pi)=Qj。函数H(tx,ty,s,θ)是一个含有四个参数的映射变换,其中s是两幅图像的伸缩系数,θ为偏转角度,tx和ty分别是沿x方向和y方向的位移。下面介绍函数H(tx,ty,s,θ)中四个参数的求解过程。

用x方向和y方向的坐标来描述两个点集中的特征点:

显然,若P和Q中存在一对匹配的点Pi和Qm,则其对应关系为:(www.xing528.com)

由以上两个方程可以得到函数H(tx,ty,s,θ)的四个参数变量值为:

由此,在计算出的值后,可以求出变量tx、ty、s和θ的值。

具体算法有以下几个步骤:

1)初始匹配点对的确定

点模式匹配算法首先要在两个待匹配点集合P(P为该类模板图像的特征点集合)和Q中寻找到肯定匹配的两对点,即参考点。采用匹配点支持算法来确定参考点,其核心思想是,假定Pi和Qm是可以真正匹配的一对点对,则分别从Pi和Qm向点集内其他特征点作矢量线段,j=1,2,…,k,j≠i,n=1,2,…,l,n ≠m。那么在矢量段组成的两个集合中,肯定存在一个转角参数θ0,使得大多数矢量段满足参数(0,0,θ0)下的映射关系。

2)映射参数的求取

计算每对匹配点Pi和Qm的支持数W i,m(支持数表示当Pi和Qm匹配时还有Wi,m个点对存在一一匹配的关系)。当Pj↔Qn是一对真正匹配的特征点时,Wj,n可能是{Wi,m | i=1,2,…,k;m=1,2,…,l}中的最大值。反过来说,如果Wj,n是{ W i,m|i=1,2,…,k;m=1,2,…,l}中的最大值,则Pj↔Qn一定是成功匹配的一对,同时表明存在另外的匹配特征点对支持Pj↔Qn相匹配。寻找到具有最大支持数的匹配点,就可以确定两幅图像间转角参数,从而确定H(tx,ty,s,θ)。

3)匹配识别

特征点以具有最大支持数的匹配点为原点,以函数参数为基础,进行旋转坐标变换,求取点集Q和模板点集P之间匹配的点对数SQ(1≤SQ≤min(k,l));然后用SQ除以该类模板图像的总特征点数k得到匹配分数TQ,TQ=SQ/k;最后将TQ与预置的匹配阈值T(0<T≤1)比较,当TQ ≥ T时,则两幅图像匹配,否则不匹配。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈