当人微笑时如何找出whitePixelValue?

Tar*_*riq 6 iphone opencv pixel face-detection haar-wavelet

使用CvRect我能够检测面部坐标

detectFace(IplImage * pImg, CvHaarClassifierCascade * pCascade, CvMemStorage * pStorage)
Run Code Online (Sandbox Code Playgroud)

但我的问题是当人微笑时如何找出whitePixelValue?

什么微笑偏移是合适的?150值是否准确?

微笑haarcascade根本不工作.需要使用白色像素的逻辑做一些事情

请帮忙!!!

更新:我认为我的赏金会浪费..没有得到专家对此线程的回应.我在寻找算法:(

And*_*oev 7

据我所知,你想根据牙齿和皮肤之间的色差来检测笑容,对吧?可能这是有道理的,因为嘴唇像素强度与牙齿像素差别很大.如果是这样,我建议采用两种方法.

首先是计算面部区域的拉普拉斯变换.具有拉普拉斯算子的最大值的坐标将对应于相邻像素强度之间的最大差异.我认为微笑包含最多的对比像素.您应该再次选择阈值,但在这种情况下,它与图像的光照条件无关.

第二个想法类似于第一个想法,除了您需要将像素与所有面部像素的平均值进行比较.这里,其值相对于平均值相对太高的像素被认为是牙齿像素.顺便说一句,类似的东西cvAdaptiveThreshold可能有所帮助.