苹果x面容,苹果x面容id不可用怎么修复

 admin   2024-02-01 00:07   30 人阅读  0 条评论

11月16日,苹果日报发布了自己的机器学习技术,发表了论文《基于深度神经网络的设备端面部识别》,揭示了面部识别技术的演变。


对于本期的智能内幕参考,我们推荐苹果公司的技术论文《基于深度神经网络的设备端面部识别》,该论文探讨了FaceID的技术进步,从Viola-Jones对象检测框架到深度学习算法。然后,我们解读终端深度学习实施方案。如果您想收藏本文完整报告,可以在您的知动态账号中回复关键词“nc206”即可下载。


以下是我们智能内部参考组织提供的干巴巴的信息。


2017年9月13日,苹果在史蒂夫乔布斯剧院推出了智能手机iPhoneX。这款全面屏手机搭载64位架构A11神经处理引擎,采用面部识别解锁,被誉为iPhone十周年纪念产品,国内银行售价8388元起。


事实上,苹果从iOS10开始就开始使用深度学习技术进行面部识别,目前已经向开发者开放了视觉框架,以支持相关应用程序的开发。下面我们将重点讨论计算机视觉技术和基于深度学习的终端人脸识别技术实施所面临的隐私题。


1.最终深度学习模型面临的挑战


Apple最初的面部识别API是通过CIDetector实现的,CIDetector是一个图像处理单元,可识别静态影响的特征信息。CIDetector的初始版本基于Apple经典优化的Viola-Jones目标检测框架。


后来,随着深度学习的出现及其在计算机视觉领域的应用,面部识别的准确性取得了巨大的飞跃,给苹果带来了启发。与传统的计算机视觉解决方案相比,深度学习算法可以提供更好的模型,但需要更多的内存、存储/磁盘和计算资源。


这里有一个矛盾。考虑到目前的终端硬件情况,基于深度学习的视觉模型似乎并不是一个可行的解决方案。大多数公司的解决方案是提供云接口,然后将图像先传输到机器上。当您大规模运行深度学习时,该框架的服务器会使用深度学习来检测人脸。云服务通常需要强大的桌面级GPU和大量内存。


云界面解决方案是可能的,但它违背了苹果的隐私概念。因此,苹果只提供照片和视频的云服务。上传所有照片和视频之前需要帐户授权。对于计算机视觉指令,禁止上传至云端。我认为这是一种不恰当的做法。


最终,苹果通过在自己的终端——iPhone——中找到了深度学习的解决方案,实现了高水平的面部识别准确率。挑战包括将深度学习模型集成到占用宝贵NAND存储空间的操作系统中,需要加载到RAM中才能使用GPU和/或CPU实现足够的计算时间,以及进一步的通信。深度学习模型与云端的区别在于,终端深度学习在执行计算机视觉命令的同时还需要解析其他后台程序。


简单来说,终端深度学习模型需要的是能够面对海量照片库、能够在极短的时间内执行命令、且功耗低、不发热的东西。


2.从维奥拉琼斯到深度学习


2001年,PaulViola和MichaelJones提出了一种基于Haar特征和方向变量滤波器的简单的基于特征的目标识别技术,即Viola-Jones目标检测框架,该方法在OpenCV中实现为cvHaarDetectObjects。基于Viola-Jones框架,iOS7引入了CIDtecor来实现人脸检测和识别,但人脸识别的准确性和可靠性目前并不可靠。


2014年苹果刚开始致力于基于深度学习的面部识别时,深度卷积神经网络才刚刚完成物体识别的任务,而当时的主流解决方案是OverFeat,它可以有效、快速地扫描物体图像。


OverFeat实现了神经网络的连接层和卷积层之间的等效性。换句话说,它实现了多尺度输入预测。OverFeat还基于更少的网络步幅提供更密集的输出映射。


基于OverFeat,Apple构建了一个初始架构来实现


1.二元分类识别输入数据是否包含面部信息。


2、回归算法对输入的人脸信息进行边界预测,识别出人脸位置。


苹果尝试了多种训练方法。也就是说,我们生成与网络的最小有效输入相对应的固定大小图像块的大型数据集,确保每个块从网络产生单个输出,定义参数的正类和负类,并训练它们。我们使用网络来优化多个任务目标,包括识别人脸的存在并找到其坐标和大小。高效的全卷积可以处理任意尺寸的图像并产生2D输出图。


人脸识别DCN框架


总体思路是这样的该人脸检测过程包括三个主要部分多尺度图像金字塔、人脸检测器和后处理模块。多尺度金字塔处理不同尺寸的面。人脸检测器遍历金字塔的每一层并从每一层收集候选检测。然后后处理模块将整个范围内的这些候选检测组合起来,生成与网络A列表相对应的图像。最终预测的面部边界框。


人脸识别流程


虽然上述策略基本构成了终端计算机视觉解决方案,但网络复杂度和规模仍然是性能的主要瓶颈。网络不仅应限于简单的拓扑,而且网络层数、每层通道数和体积也应受到。产品滤波器的内核大小。


为此,苹果提出了一种“师生”训练方法,利用经过训练的大型复杂网络的输出来训练第二个细而深的网络。


上述方法提供了适合终端的人脸检测深度神经网络算法,并通过多次训练迭代得到足够准确的网络模型。


3.图像管道优化


深度学习提供了强大的计算机视觉框架,但它也需要高度优化的成像管道。


无论输入图像的角度、是否缩放、颜色转换或图像源/格式如何,人脸识别都应该正常工作。此外,功耗和内存使用也是优化的关键,特别是对于流媒体和图像捕获。对此,苹果使用部分子采样解码技术和自动平铺技术,即使在非结构化长宽比下,也可以在大图像上执行计算机视觉任务。


苹果还提供了丰富的色空间API,计算机视觉框架可以直接处理色匹配,降低了开发者开发相关应用的门槛。


通过中间体的高效处理和重用来优化计算机视觉框架。通过抽象算法的接口并定位要处理的图像或缓冲区的所有权,算法框架可以生成和缓存中间图像,提供尽可能多的分辨率和色空间,从而提高许多计算机视觉任务的性能。


4.优化设备性能


如前所述,设备的面部识别API必须克服实时应用程序和后台系统进程的题。用户想要的是在处理照片库的同时进行人脸识别,或者在拍摄照片后立即分析照片,在不影响功耗和系统延迟的情况下无缝运行人脸识别。


苹果对此的解决方案是最大限度地减少内存使用和GPU使用。也就是说,它通过分析计算图来分配神经网络的中间层。将多个层别名到同一个缓冲区不仅可以减少内存使用,还可以减少内存使用。它会影响性能或分配碎片,并且可以在CPU或GPU上使用。


Apple计算机视觉框架中的检测器运行五个网络,这些网络共享相同的权重和参数,但输入、输出和中间层具有不同的形状。为了进一步减少占用空间,我们建议在五个网络的联合图上运行基于活动的内存优化算法。此外,为多个网络重复使用相同的权重和参数缓冲区也可以减少内存需求。


通过利用网络的完全卷积性质来动态调整每个图像以适应输入图像的分辨率,还可以显着减少操作总数。动态整形不会产生任何与分配相关的性能开销,因为任务的拓扑并未因重构和剩余分配器的高性能而改变。


为了确保深度神经网络在后台运行时的UI响应能力和流畅性,Apple为网络的每一层拆分GPU工作项,直到每个单独的时间小于1毫秒。结合所有这些策略,用户可以享受本地、低延迟、保护隐私的深度学习算法,而无需意识到他们的手机每秒执行数百万次神经网络浮点运算。


志东西认为,基于相对成熟的计算机视觉/人脸识别技术,除了云端之外,苹果在终端深度学习方面还提供了许多需要克服的挑战,包括功能可靠性/准确性、功耗、后台程序崩溃的可能性等。另一个想法。例如,通过“师生”训练、中间层、联合图、分区GPU工作项、匹配框架神经引擎等解决方案,解决海量训练数据和计算之间的矛盾以及终端硬件的。是。


下载提醒如果您想收藏本文的报告,可以在您的知动态账号中回复关键词“nc206”即可下载。


对于苹果x面容和苹果x面容id不可用怎么修复的一些相关话题,本文已经做出了详细的解,希望各位喜欢。

本文地址:http://eptisonshop.com/post/34755.html
版权声明:本文为原创文章,版权归 admin 所有,欢迎分享本文,转载请保留出处!

 发表评论


表情

还没有留言,还不快点抢沙发?