请输入您要查询的百科知识:

 

词条 人耳识别
释义

人耳识别是近年来新兴起的一种生物特征识别技术,然而姿态问题一直是其难点问题之一,针对此问题提出了一种基于基空间转换的新方法.首先,利用主元分析和核主元分析方法得到姿态人耳图像和正侧面人耳图像的基空间,通过计算两种基空间之间的线性转换关系求出姿态转换矩阵,然后将待测的姿态人耳图像特征集利用基空间姿态转换矩阵转变成正侧面人耳图像特征集,最后用支持向量机进行分类识别.实验结果表明,该方法与没有经过姿态转换的方法相比,识别率显著提高.

简介

人耳识别作为一种新的生物特征识别技术,其理论与应用研究在近两年受到了国内外学者更多的关注。基于静态图像的人耳识别问题根据输入图像的不同可分为三类:基于二维图像的人耳识别、基于3D的人耳识别和耳纹识别。

研究

最具有代表性的早期研究是Alfred Iannarelli提出的基于12个测量段为特征的“Iannarelli系统”。Moreno等使用人工神经网络方法提取人耳的复合特征:即提取外耳特征点,人耳图像的耳形和褶皱信息以及人耳图像的宏观特征。Burge和Burger使用分形轮廓进行人耳定位,使用Canny算子提取边缘,并构造边缘曲线的Voronoi图,然后提取相邻曲线的关系来构造特征向量。Hurley, Nixon和Carter使用力场转换方法进行识别。利用势能通道和势能井的位置,就可以描述人耳的特征。王忠礼使用高阶不变矩阵提取人耳图像的特征进行识别。

加利福尼亚大学的Bir Bhanu和Hui Chen使用range传感器获取的range人耳图像带有三维几何形状信息,使用local surface patches(LSP)来描述人耳,提出了基于3D图像的人耳识别方法。当人耳挤压在某种材料(如玻璃)上时会留下耳纹。同样,耳纹也可以作为一种生物特征。其应用主要集中在犯罪调查中。耳纹特征通常在耳轮、对耳轮、耳屏、对耳屏处提取得到。文献中探讨了耳纹与耳朵挤压到硬质材料时所施加压力的关系以及该压力的各种影响因素,并建立极坐标来提取由关键点和角度构成的特征向量。但是,耳纹图像的获取相对困难,多适用于刑侦方面。

试验

本实验室在自然科学基金(编号60375002)的资助下,进行了一年左右的人耳识别技术研究。在早期研究中,对随机采集的243只人耳图像,仅以外耳轮廓曲线的傅立叶系数为特征进行的识别处理,就可以达到80%以上的正确识别率。2003年初首先拍摄了60人(每人3幅图像)的人耳图像库,研究人耳识别的可行性,使用标准的主元分析法就能达到94%的识别率。2004年初建立了77人(每人4幅图像,拍摄条件为角度变化和光照变化)的人耳图像库,旨在进行姿态和光照变化情况下的人耳识别。在该图像库上,我们首先采用基于局部特征的方法进行识别[24],即提取外耳形状特征和内耳结构特征,利用神经网络进行识别,识别率为85%。其次采用主元分析法提取“特征耳”,利用神经网络进行识别。

人耳检测是人耳识别的第一环节,也是我们建立人耳和人脸融合的多模态识别原型系统的重要部分。在已有人耳检测方法的基础上,我们提出了基于改进AdaBoost算法的人耳检测与跟踪:将机器学习引入到人耳检测系统中,通过使用扩展的haar-like特征来表达人耳的点线特征,并参照已有的实验数据对比结果选择Gentle AdaBoost算法训练出一组强分类器,以级联的方式将它们整合起来,构造出多层人耳检测器。为了加快检测速度,一方面实验通过调整分类器的阈值,令分类器前两层实现排除大量疑似非人耳子窗口,仅留下疑似人耳子窗口参与后续分类的功能,另一方面采用固定被检图像大小,缩放检测子窗口的方法对图像遍历,得到检测目标。最终检测器在CAS-PEAL人脸库上测试,检测率达到98%以上;在PⅣ 1.7GHz的PC上对普通CMOS摄像头输入的320*240 dpi视频进行人耳跟踪,速度可达6~7fps。实验结果表明,此人耳检测方法具有较好的实时性和一定的鲁棒性。

特征

针对人耳识别中的特征提取和分类问题,我们将独立分量分析(ICA)应用于人耳图像的特征提取,并分别应用最近邻、RBF神经网络和SVM分类器进行分类识别。试验结果表明基于独立分量分析的方法优于传统的主分量分析方法。 针对遮挡情况下的人耳识别的问题,我们提出了一种改进的带有稀疏性限制的非负矩阵因子方法,给出了求解该新目标函数的迭代规则,并证明了迭代规则的收敛性。然后对人耳图像进行子区域划分,计算各子区域相似度,最后融合各子区域相似度得到整体相似度。通过融合,识别效果有了明显的提高。

随便看

 

百科全书收录4421916条中文百科知识,基本涵盖了大多数领域的百科知识,是一部内容开放、自由的电子版百科全书。

 

Copyright © 2004-2023 Cnenc.net All Rights Reserved
更新时间:2024/12/23 16:49:30