博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
基于QT和OpenCV的人脸检測识别系统(2)
阅读量:5080 次
发布时间:2019-06-13

本文共 4735 字,大约阅读时间需要 15 分钟。

紧接着上一篇博客的讲

第二步是识别部分

人脸识别 把上一阶段检測处理得到的人脸图像与数据库中的已知 人脸进行比对,判定人脸相应的人是谁(此处以白色文本显示)。

 

人脸预处理

如今你已经得到一张人脸,你能够使用那张人脸图片进行人脸识别。

然而,假如你尝试这样简单地从一张普通图片直接进行人脸识别的话,你将会至少损失10%的准确率!

在一个人脸识别系统中,应用多种预处理技术对将要识别的图片进行标准化处理是极其重要的。多数人脸识别算法对光照条件十分敏感,所以假如在暗室训练,在明亮的房间就可能不会被识别出来等等。这个问题可归于“lumination dependent”,而且还有其他非常多样例,比方脸部也应当在图片的一个十分固定的位置(比方眼睛位置为同样的像素坐标),固定的大小,旋转角度。头发和装饰,表情(笑,怒等),光照方向(向左或向上等),这就是在进行人脸识别前,使用好的图片预处理过滤器十分重要的原因。

你还应该做一些其他事情,比方去除脸部周围的多余像素(如用椭圆遮罩,仅仅显示其内部的人脸区域而不是头发或图片背景,由于他们的变化多于脸部区域)。

为简单起见。我展示给你的人脸识别系统是使用灰度图像的特征脸方法。

所以我将向你说明如何简单地把彩色图像转化为灰度图像,而且之后简单地使用直方图均衡化(Histogram Equalization)作为一种自己主动的标准化脸部图像亮度和对照度的方法。为了得到更好的结果,你能够使用彩色人脸识别(color face recognition,ideally with color histogram fitting in HSV or another color space instead of RGB)。或者使用很多其它的预处理,比方边缘增强(edge enhancement),轮廓检測(contour detection),手势检測(motion detection),等等。

你能够看到一个预处理阶段的样例:

 

这是把一幅RGB格式的图像或灰度图像转变为灰度图像的基本代码。它还把图像调整成了固定的维度,然后应用直方图均衡化来实现固定的亮度和对照度。

PCA原理

如今你已经有了一张经过预处理后的脸部图片,你能够使用特征脸(PCA)进行人脸识别。OpenCV自带了运行PCA操作的”cvEigenDecomposite()”函数。然而你须要一个图片数据库(训练集)告诉机器如何识别其中的人。

所以你应该收集每一个人的一组预处理后的脸部图片用于识别。比方,假如你想要从10人的班级其中识别某个人,你能够为每一个人存储20张图片,总共就有200张大小同样(如100×100像素)的经预处理的脸部图片。

特征脸的理论在Servo Magazine的两篇文章(Face Recognition with Eigenface)中解释了。但我仍会在这里尝试着向你解释。

我们使用“主元分析”把你的200张训练图片转换成一个代表这些训练图片主要差别的“特征脸”集。首先它将会通过获取每一个像素的平均值,生成这些图片的“平均人脸图片”。然后特征脸将会与“平均人脸”比較。

第一个特征脸是最基本的脸部差别,第二个特征脸是第二重要的脸部差别。等……直到你有了大约50张代表大多数训练集图片的差别的特征脸。

  

   
在上面这些演示样例图片中你能够看到平均人脸和第一个以及最后一个特征脸。注意到。平均人脸显示的是一个普通人的平滑脸部结构,排在最前的一些特征脸显示了一些基本的脸部特征,而最后的特征脸(比方Eigenface 119)主要是图像噪声。你能够在以下看到前32张特征脸。

 
简单地说,特征脸方法(Principal Component Analysis)计算出了训练集中图片的主要差别。而且用这些“差别”的组合来代表每幅训练图片。
比方,一张训练图片可能是例如以下的组成:

(averageFace) + (13.5% of eigenface0) – (34.3% of eigenface1) + (4.7% of eigenface2) + … + (0.0% of eigenface199).

一旦计算出来。就能够觉得这张训练图片是这200个比率(ratio):

{13.5, -34.3, 4.7, …, 0.0}.

用特征脸图片分别乘以这些比率。并加上平均人脸图片 (average face)。从这200个比率还原这张训练图片是全然能够做到的。可是既然非常多排在后面的特征脸是图像噪声或者不会对图片有太大作用,这个比率表能够被减少到仅仅剩下最基本的,比方前30个,不会对图像质量有非常大影响。所以如今能够用30个特征脸。平均人脸图片。和一个含有30个比率的表,来代表所有的200张训练图片。

在还有一幅图片中识别一个人,能够应用同样的PCA计算,使用同样的200个特征脸来寻找200个代表输入图片的比率。

而且仍然能够仅仅保留前30个比率而忽略其余的比率,由于它们是次要的。

然后通过搜索这些比率的表,寻找在数据库中已知的20个人,来看谁的前30个比率与输入图片的前30个比率最接近。这就是寻找与输入图片最相似的训练图片的基本方法。总共提供了200张训练图片。

训练图片

创建一个人脸识别数据库,就是训练一个列出图片文件和每一个文件代表的人的文本文件。形成一个facedata.xml“文件。

比方,你能够把这些输入一个名为”trainingphoto.txt”的文本文件:
joke1.jpg
joke2.jpg
joke3.jpg
joke4.jpg
lily1.jpg
lily2.jpg
lily3.jpg
lily4.jpg
它告诉这个程序。第一个人的名字叫“joke,而joke有四张预处理后的脸部图像,第二个人的名字叫”lily”,有她的四张图片。这个程序能够使用”loadFaceImgArray()”函数把这些图片载入到一个图片数组中。

为了从这些载入好的图片中创建一个数据库,你能够使用OpenCV的”cvCalcEigenObjects()”和”cvEigenDecomposite()”函数。

获得特征空间的函数:

  1. void cvCalcEigenObjects( int nObjects, void* input, void* output, int ioFlags, int ioBufSize, void* userData,CvTermCriteria* calcLimit, IplImage* avg, float* eigVals )  
void cvCalcEigenObjects( int nObjects, void* input, void* output, int ioFlags, int ioBufSize, void* userData,CvTermCriteria* calcLimit, IplImage* avg, float* eigVals )

nObjects:目标的数目,即输入训练图片的数目。

input:输入训练的图片。
output:输出特征脸。总共同拥有nEigens
ioFlags、ioBufSize:默觉得0
userData:指向回调函数(callback function)必须数据结构体的指针。
calcLimit:终止迭代计算目标特征的条件。依据calcLimit的參数,计算会在前nEigens主要特征目标被提取后结束(这句话有点绕,应该就是提取了前nEigens个特征值,),还有一种结束的情况是:眼下特征值同最s大特征值的比值降至calcLimit的epsilon值之下。
赋值例如以下calcLimit = cvTermCriteria( CV_TERMCRIT_ITER, nEigens, 1);
它的类型定义例如以下:
typedef struct CvTermCriteria
{
  int type;  int max_iter;    //最大迭代次数
  double epsilon;    //结果精确性
}
avg:训练样本的平均图像
eigVals:以降序排列的特征值的行向量指针。

能够为0。

最后将所得数据形成一个facedata.xml“文件保存下来,它能够随时被又一次加载来识别经训练过的人。

图像在特征空间的投影:

void cvEigenDecomposite( IplImage* obj, int nEigObjs, void* eigInput,int ioFlags, void* userData, IplImage* avg, float* coeffs );  
void cvEigenDecomposite( IplImage* obj, int nEigObjs, void* eigInput,int ioFlags, void* userData, IplImage* avg, float* coeffs );

 

obj:输入图像,训练或识别图像

nEigObjs:特征空间的eigen数量
eigInput:特征空间中的特征脸
ioFlags、userData:默觉得0
avg:特征空间中的平均图像
coeffs:这是唯一一个输出。即人脸在子空间的投影,特征值
识别的过程
1. 读取用于測试的图片。

2. 平均人脸,特征脸和特征值(比率)使用函数“loadTrainingData()” 从人脸识别数据库文件(the face recognition database fil)“facedata.xml”加载。

3. 使用OpenCV的函数“cvEigenDecomposite()”,每张输入的图片都被投影到PCA子空间,来观察哪些特征脸的比率最适合于代表这张图片。

4. 如今有了特征值(特征脸图片的比率)代表这张输入图片。程序须要查找原始的训练图片。找出拥有最相似比率的图片。这些用数学的方法在“findNearestNeighbor()”函数中运行。採用的是“欧几里得距离(Euclidean Distance)”。可是它仅仅是基本地检查输入图片与每张训练图片的相似性。找到最相似的一张:一张在欧几里得空间上与输入图片距离近期的图片。就像在 Servo Magazine的文章上提到的那样。假设使用马氏距离( the Mahalanobis space,须要在代码里定义 USE_MAHALANOBIS_DISTANCE)。你能够得到更准确的结果。

5. 在输入图片与最相似图片之间的距离用于确定可信度(confidence),作为是否识别出某人的指导。

1.0的可信度意味着全然同样,0.0或者负的可信度意味着很不相似。可是须要注意,我在代码中用到的可信度公式仅仅是一个很主要的可信度測量,不是很可靠,可是我认为多数人会想要看到一个粗略的可信度值。你可能发现它对你的图片给出错误的值,所以你能够禁用它(比方:把可信度设为恒定的1.0)。

一旦指导哪张训练图片和输入图片最相似,并假定可信度值不是太低(应该至少是0.6或更高)。那么它就指出了那个人是谁,换句话说,它识别出了那个人!

最后的效果图例如以下

 

功能主要有

 开关摄像头

离线训练,

在线加入人脸库

在线训练

只是如今的缺陷是一次加入一个人照片数随便。训练过了才干加入还有一个

特别麻烦

转载于:https://www.cnblogs.com/wzjhoutai/p/6699554.html

你可能感兴趣的文章
【9111】高精度除法(高精度除高精度)
查看>>
【hihocoder 1312】搜索三·启发式搜索(普通广搜做法)
查看>>
JavaFX中ObservableValue类型
查看>>
杭电 1097 A hard puzzle
查看>>
[转载]INFORMIX锁机制及如何剖析其锁申辩(第二部门)
查看>>
Andriod-项目stymqjlb-学习笔记2-原型
查看>>
Web AppDomain
查看>>
JQuery创建规范插件
查看>>
AD 域服务简介(三)- Java 对 AD 域用户的增删改查操作
查看>>
Unity中Text渐变色,和Text间距
查看>>
P4932 浏览器
查看>>
Concurrency Kit 0.2.13 发布,并发工具包
查看>>
SQL Relay 0.50 发布,数据库负载均衡器
查看>>
Infinispan 5.3.0.Alpha1 发布
查看>>
设计模式学习笔记——原型模式(Prototype)
查看>>
算法普林斯顿
查看>>
Struts2之类范围拦截器和方法拦截器
查看>>
模型层(练习)
查看>>
XML解析技术研究(一)
查看>>
Qt 学习之路 :使用 QJson 处理 JSON
查看>>