为什么需要 AI 计算芯片?

作者:匿名   来源:爱范儿   发布:2022-02-11 10:06:47  浏览:771

和手机的其他零件相比,NPU 登场的时间要晚得多。


2017 年 9 月华为在柏林 IFA 展发布的麒麟 970 是首颗集成 NPU 的 SoC,同一时期,苹果发布了首次搭载神经计算引擎的 A11 仿生芯片,两个阵营对 AI 计算领域的关注出奇同步。


AI 功能的出现看似突兀,但这其实是智能手机形态发展过程中自然演化的结果。


《连线》杂志与苹果副总裁 Tim Millet 关于 A 系列芯片的访谈中提到,在 iPhone X 发布的数年前,苹果的一些工程师就提出了利用机器学习算法让 iPhone 的摄像头变得更智能的想法。


正是这个想法,让定义了 iPhone 未来十年形态的 iPhone X 有了落地的可能。转向全面屏的 iPhone X 需要一个新的安全机制取代原本占据下巴的 Touch ID,并且在准确度、解锁速度都不能落后前者,为了实现这些点,苹果转向了 3D 结构光面容识别。


每次点亮 iPhone 进行解锁,位于刘海中的深感摄像头都会通过成千上万个点创建一个深度图,与储存的人脸数据比对完成解锁,而这个收集、创建、校对的过程需要控制在瞬息之间,更重要的是,功耗必须控制在一个足够低的水平。


根据苹果公布的数据,iPhone 用户每日平均解锁次数为 80 次,如果每次解锁都要调动 CPU 或 GPU 做高功耗的图形运算,对手机续航而言会是个相当大的挑战。


▲ 机器学习的过程


而多核架构的神经计算引擎可以同时执行大量运算,并且经过深度机器学习,它可以像人脑一样识别和判断人面信息,利用它实现人脸识别在功耗和性能上比传统 CPU 都有着不小的优势。


「如果没有神经计算引擎,我们不可能做到这一点」,Tim Millet 在访谈中提到。


随着核心数的增多,神经计算引擎算力也会随之大幅提升,其应用也越来越广。


例如 A13 仿生芯片的 8 核神经计算引擎为 iPhone11 系列带来了 Deep Fusion 和夜景模式功能,通过多张融合提升照片的清晰度和细节;A14 仿生芯片的神经计算引擎提升到了 16 核,能够在拍摄时同时调用多枚摄像头,实现顺滑的变焦体验。


▲ A15 仿生芯片和 A14 仿生芯片的剖析图,神经计算引擎集中在左下角


总的来说,神经计算引擎等 NPU 的出现,可以很好地分担 CPU 或 GPU 的算力压力,通过对大数据进行高效的并行分析和计算,提取出有意义的结果,用更自然的处理能力改善我们的体验。


来源:爱范儿

需要找芯片半导体行业人才或者芯片半导体行业职位,请直接站内注册登录或者站内联系我们。高芯圈是芯片半导体行业的人才求职招聘网站平台,提供求职招聘、人才筛选、薪酬报告、人事外包等服务与解决方案,芯片半导体行业人才与职位尽在高芯圈。
高芯圈
芯片半导体职位来 高芯圈
登录 / 注册