您好,欢迎进入奥门新浦京网999奥门新浦京网999电动伸缩门有限公司官网!
澳门新浦新京网页(中国)有限公司

联系我们

邮箱:admin@jamacompetences.com
电话:035-37354051
地址:山东省济南市武清区程程大楼907号 在线咨询

奥门新浦京网999常见问题

iPhoneX/华为Mate10中的AI处理器对使用者而言到底有啥影响?【奥门新浦京网999】

发布日期:2024-04-04 01:32浏览次数:
本文摘要:目前,高端智能手机CPU都有一个叫作“神经处理单元”的处置架构,但这知道不会影响你吗?科技巨头们早已几乎拒绝接受了人工智能革命。苹果(Apple)、高通(Qualcomm)和华为(Huawei)生产的移动芯片,目的更加好地解决机器学习任务,每种芯片都使用了略有不同的方法。华为今年在IFA上发售了麒麟970,其被称作第一个有专门的神经处理单元(NPU)的芯片。 接着,苹果发售了A11仿生芯片,iPhone8、8Plus和X配备的都是这款芯片。

奥门新浦京网999

目前,高端智能手机CPU都有一个叫作“神经处理单元”的处置架构,但这知道不会影响你吗?科技巨头们早已几乎拒绝接受了人工智能革命。苹果(Apple)、高通(Qualcomm)和华为(Huawei)生产的移动芯片,目的更加好地解决机器学习任务,每种芯片都使用了略有不同的方法。华为今年在IFA上发售了麒麟970,其被称作第一个有专门的神经处理单元(NPU)的芯片。

接着,苹果发售了A11仿生芯片,iPhone8、8Plus和X配备的都是这款芯片。A11仿生特性就是苹果所说的“专为机器学习而设计”的神经引擎。

上周,高通宣告发售Snapdragon845,它将AI任务发送到合适的内核。这三家公司的作法并没过于大的差异,最后归结每个公司向开发者获取的终端水平,以及每个设备的耗电量。在辩论之前,让我们来想到AI芯片否与现有的CPU几乎有所不同。

最近,在行业中,常常可以听见的关于人工智能的术语是“异构计算”。它所指的是用于多种类型的处理器的系统,每个处理器都有专门的功能,以取得高性能或降低功耗。这个点子并不精致,现在许多芯片组都用于异构计算,苹果、高通、华为这三家新的发售的芯片只是在有所不同程度上用于了这个概念。

过去三年,智能手机CPU一般都使用了Arm的big.LITTLE架构,该架构将速度比较较快、节约能源的核心与更慢、耗电量更慢的内核展开筛选。主要的目标是尽可能少的用于电源,以取得更佳的电池寿命。第一批用于这种架构的手机还包括享有自律研发手机处理器Exynos5芯片的三星GalaxyS4,以及华为的Mate8和Honor6。

今年的“人工智能芯片”将这一概念向前前进了一步:要么减少了一个专门的组件来继续执行机器学习任务;要么,在Snapdragon845的情况下,用于其他低功耗内核来继续执行。例如,Snaplong845可以利用它的数字信号处理器(DSP)来处置必须大量反复计算出来的长时间运营的任务,比如侦听热词。

高通公司产品管理总监GaryBrotman回应,像图像识别这样的活动,是由GPU更佳的管理的。Brotman负责管理Snapdragon平台的AI和机器学习。

与此同时,苹果的A11仿生应用于在其GPU中用于了一个神经引擎,以减缓人脸识别,Animoji和一些第三方应用于的速度。这意味著,当启动iPhoneX上这些过程时,A11就不会关上神经引擎,展开适当的计算出来,要么检验你是谁,要么把你的面部表情同构到对话框。在麒麟970上,NPU接管了一些任务,比如扫瞄和翻译成用微软公司翻译器摄制的图片中的单词。

微软公司翻译器是目前为止唯一针对该芯片组展开了优化的第三方应用程序。华为回应,“HiAI”异构计算结构将最大限度地提升了其芯片组中大多数组件的性能,因此,它可能会将人工智能任务分配给某种程度是NPU的任务。

A11仿生的两个“性能”核心和四个“效率”核心除了差异之外,这个新的架构意味著,以前在云端处置的机器学习,现在可以在设备上更加高效地继续执行了。通过用于CPU以外的部分来运营AI任务,手机可以同时做到更加多的事情,因此在等候翻译成或寻找要去找的图片时,不太可能不会遇上延后。另外,在手机上运营这些过程,而不是把它们发送到云端,对维护用户隐私也有益处,因为这增加了黑客提供用户数据的潜在机会。这些AI芯片的另众多优势是节省能源。

奥门新浦京网999

电力是一种宝贵的资源,必须谨慎分配。GPU偏向于吸取更加多功率,所以如果DSP的能效更高,效果相近,那么最差是利用后者。

必须解释的是,在继续执行某些任务时,并不是芯片组本身要求要用于哪个内核。Brotman说道:“今天,这各不相同开发者或OEMs的运营方式。”程序员可以用于反对的库,比如谷歌的TensorFlow(或者更加清楚地说道,它的Lite移动版本)反对的库来登录在哪些内核上运营他们的模型。

奥门新浦京网999

高通、华为和苹果都在用于TensorFlowLite和Facebook的Caffe2这样最热门的神经网络库。高通还反对较新的对外开放神经网络互相交换(ONNX),而苹果通过其核心的ML框架为更好机器学习模型减少兼容性。到目前为止,这些芯片都没带给很显著的益处。

不管芯片制造商撒谎他们自己的测试结果和基准,这些最后都是毫无意义的,直到人工智能过程沦为我们日常生活中更加最重要的一部分。我们正处于设备上机器学习的早期阶段,而且用于新的硬件的开发人员寥寥无几。不过,显而易见的是,这场使在设备上继续执行机器学习涉及的任务更加慢,更加省电的竞赛正在展开。我们只必须再行等一段时间,就能看见这个架构对AI的确实益处。


本文关键词:奥门新浦京网999,iPhoneX,华为,Mate10,中的,处理器,对,使用者,而言

本文来源:奥门新浦京网999-www.jamacompetences.com

Copyright © 2003-2023 www.jamacompetences.com. 奥门新浦京网999科技 版权所有 ICP备15750302号-6 XML地图 织梦模板