巧修郎

主页 > 维修百科 >

iPhone X上用的FaceID何方神圣?

发布日期:2017-09-12 浏览次数:

  距离苹果秋季发布会的时间越来越短了,之前由于苹果员工意外泄露出苹果iOS 11的GM固件,使得无数工程师纷纷对固件进行逆向工程,并且从中找到不少关于新iPhone的信息,尤其是备受大家关心的iPhone十周年之作iPhone X Edition。由于全面屏的走马上任,苹果沿用多年的Home按键也被迫取消,少了Home按键这个物理载体的话,TouchID也将不复存在了。
 
  难道苹果要摧毁自己辛辛苦苦建立起来的移动支付、安全验证集于一身TouchID。不不不,其实苹果已经研究出更加方便好用的FaceID,这个功能已经被工程师们从苹果iOS 11 GM固件中得到确认,那么这个FaceID究竟是个什么玩意?虹膜识别、脸部图像功能在Android不是早就有了吗?苹果是不是新瓶装旧酒呢?答案是否定的。

  一般来说,我们之前看到的绝大部分脸部图像识别功能是基于一个二维平面,也就是说摄像头采集的是人类面部的一个平面图像,主要依靠人类面部数十个特征点来生成一组特征值,然后每一次识别时候将会与第一次录入特征值进行比对,到达一定的准确率就算是配对成功。

  但是这个有一个非常大的问题,也是老生常谈的,那就是我们可以运用一张图片也能通过脸部识别,安全系数确实不高,所以大家很快看到Android在以后的里面几乎抛弃了这个功能。

  而虹膜识别技术与指纹识别技术技术一样,都是属于生物识别,主要依靠每个人独一无二的虹膜内织物环状物,并且提出特征点,只要匹配到一定数字就能解锁。这个由于基于生物识别技术,安全可靠性上更高,唯一问题就是识别速度有点慢。

  苹果捣弄出来的FaceID是基于三维成像的图像识别技术,它是需要特定的主动光照射系统以及摄像头,并且生成一个头像三维建模,以后每一次的识别都是与之匹配,这是FaceID最基本的原理。

  如果深入一点讲,这个技术与微软Xbox上的Kinect有点相像,他们都是采用结构光打到人体身上,依靠红外深度摄像头采集光线在人体上的变化来准确识别一个人的动作。而Kinect一开始采用的就是来自PrimeSense的方案,而这家公司后来就被苹果收购了。

    像Kinect这种深度图摄像头的成像原理可以很好地保证相机标定的鲁棒性,适应各种环境变化,使之容易自调节重新标定且不需要测量标定物。而且这种深度摄像头可以可靠地反映物体表面的三维特征,而且可以不受光照、阴影以及色度的影响,并且代替双目成像系统采集三维图像。

  我们先来看看泄露出来的iPhone X前置面板上的传感器。中央深黄色是一个普通可见光源传感器(估计是为True Tune屏功能准备),绿色是标准前置摄像头,橙色是距离传感器,这三个都是在手机上很常见的传感器。而新加入的则是蓝色的激光发射器(不可见光,940nm),而红色则是红外图像传感器,相似于Kinect深度摄像头,专门采集红外信息。

 这些传感器配合起来的工作原理主要是这样的:

  一般的光面结构光是只要将二维的光栅条纹结构光团投射到物体表面上,这样不需要进行扫描技能进行三维轮廓的测验,而且测量速度非常快。

  而FaceID应该是采用更加先进的面结构光模式,主要是为了适应人类脸部五官复杂性以及安全性需要,运用特定的光照仪器将投射图案进行编码,以此加速确认物体表面点与其图像像素点之间的对应关系。编码方式有很多种,一般采用时域编码或者是空域编码,当然不排除苹果搞出更好的编码方式,一举搞定识别过程中速度、稳定性、安全性等等问题。

  只要用右侧的红外图像摄像头采集投射的编码完成脸部解码,生成一张带有三维深度信息的图像,并且与已经录入的人脸深度信息进行对比,达到一定准确率就完成解锁任务。
 
  可以说苹果在iPhone X Edition上运用的方案,是比较先进的人脸图像识别技术,在准确率、安全性、易用性上应该可以说达到业界先进水平,而且实现了整体方案小型化,放入iPhone上。

  现在唯一的问题是,苹果会赋予FaceID怎么样的使用未来,并且如何搞定TouchID遗留下来的支付问题,先支付后识别,抑或是先识别后支付。对于iPhone上首次面世的FaceID,你想怎么玩?