和手机的其他零件相比,NPU 登场的时间要晚得多。
2017 年 9 月华为在柏林 IFA 展发布的麒麟 970 是首颗集成 NPU 的 SoC,同一时期,苹果发布了首次搭载神经计算引擎的 A11 仿生芯片,两个阵营对 AI 计算领域的关注出奇同步。
AI 功能的出现看似突兀,但这其实是智能手机形态发展过程中自然演化的结果。
《连线》杂志与苹果副总裁 Tim Millet 关于 A 系列芯片的访谈中提到,在 iPhone X 发布的数年前,苹果的一些工程师就提出了利用机器学习算法让 iPhone 的摄像头变得更智能的想法。
正是这个想法,让定义了 iPhone 未来十年形态的 iPhone X 有了落地的可能。转向全面屏的 iPhone X 需要一个新的安全机制取代原本占据下巴的 Touch ID,并且在准确度、解锁速度都不能落后前者,为了实现这些点,苹果转向了 3D 结构光面容识别。
每次点亮 iPhone 进行解锁,位于刘海中的深感摄像头都会通过成千上万个点创建一个深度图,与储存的人脸数据比对完成解锁,而这个收集、创建、校对的过程需要控制在瞬息之间,更重要的是,功耗必须控制在一个足够低的水平。
根据苹果公布的数据,iPhone 用户每日平均解锁次数为 80 次,如果每次解锁都要调动 CPU 或 GPU 做高功耗的图形运算,对手机续航而言会是个相当大的挑战。
▲ 机器学习的过程
而多核架构的神经计算引擎可以同时执行大量运算,并且经过深度机器学习,它可以像人脑一样识别和判断人面信息,利用它实现人脸识别在功耗和性能上比传统 CPU 都有着不小的优势。
「如果没有神经计算引擎,我们不可能做到这一点」,Tim Millet 在访谈中提到。
随着核心数的增多,神经计算引擎算力也会随之大幅提升,其应用也越来越广。
例如 A13 仿生芯片的 8 核神经计算引擎为 iPhone11 系列带来了 Deep Fusion 和夜景模式功能,通过多张融合提升照片的清晰度和细节;A14 仿生芯片的神经计算引擎提升到了 16 核,能够在拍摄时同时调用多枚摄像头,实现顺滑的变焦体验。
▲ A15 仿生芯片和 A14 仿生芯片的剖析图,神经计算引擎集中在左下角
总的来说,神经计算引擎等 NPU 的出现,可以很好地分担 CPU 或 GPU 的算力压力,通过对大数据进行高效的并行分析和计算,提取出有意义的结果,用更自然的处理能力改善我们的体验。
来源:爱范儿