小程序
传感搜
传感圈

边缘AI芯片遭受四重冲击

2022-04-25
关注
摘要 AI芯片需要针对算法进行特定设计,应用场景限制更多,是多方面设计思想的完美平衡,尤其是直接面向碎片应用的边缘计算AI芯片,并不比CPU、GPU容易。

AI芯片,有钱就能做?必要但不充分。只有当你足够成功,才配有名有姓。

两大阵营

为什么全球CPU、GPU公司只有屈指可数的几家,但是人工智能大潮一来,几年间就涌现出了那么多的AI芯片公司?AI芯片,有钱就能做吗?

这是芯片工程师的一个“友尽”话题,肯定派认为:与高端通用处理器相比,AI芯片多数是ASIC,容易多了;否定派认为,AI芯片需要针对算法进行特定设计,应用场景限制更多,是多方面设计思想的完美平衡,尤其是直接面向碎片应用的边缘计算AI芯片,并不比CPU、GPU容易。

开发不易落地难,费时烧脑忙全栈——算是边缘AI芯片开发的真实写照了吧。

边缘计算其实是上世纪九十年代初提出的概念,来源于数据内容传输网络,用来服务网页和视频内容,当时是从端侧服务器所产生的服务,可以更加靠近用户。

从过去三十年的发展变迁来看,数据类型和体量发生了巨大变化。最早期是人产生数据(比如广播、电视媒体等),到现在大量智能终端用户都在产生数据,此外,还有机器产生的数据,以及元数据(描述数据的数据)……这些数据必须要靠近处理数据的地方。这些都导致了数据类型越来越多元化,远非传统CPU或GPU就可以处理的。


边缘AI芯片设计新挑战?

英特尔研究院副总裁、英特尔中国研究院院长宋继强表示,边缘计算是巨大的创新机会,它是由数据和场景驱动的,因此需要进行许多垂直整合,优化包括算法、应用负载、异构计算的集成等整套系统,而不只是做好一部分底层技术就可以。

时擎科技总裁于欣认为,边缘计算AI芯片的最主要挑战是如何提高算力的效率。现在已经过了通过粗暴的先进制程来去堆砌算力的时代了,特别是面向应用和算法的时候,如何把芯片的算力发挥出来,是决定未来AI芯片发展的一个重要的因素。

灵汐科技副总经理华宝洪提到了AI芯片的三大技术挑战:

首先是摩尔定律挑战,半导体光刻技术已经接近极限,目前想要在3nm以下再提升工艺水平已经是极为挑战的技术难题,而成本、市场与需求之间的平衡,也极大可能难以为继。相伴而来的还有冯·诺依曼架构的瓶颈:高速处理器与数据I/O带宽间的不平衡,高速处理器和低能效比存储之间的不平衡等,这些因素严重影响了整体效率。

其次是对高能效比与高性价比的兼顾,既要保证边缘端用户享受优质的算力服务,又要给予合理的价位水平。

最后还需要能适应边缘计算各种复杂场景的自适应能力。如何去处理动态的复杂的场景?如何去解决没有大数据情况下有限样本的泛化?如何去面对真实世界不可被穷举的数据?这些都是现阶段AI芯片面临的挑战。

Imagination计算业务产品管理总监Rob Fisher也强调,AI芯片要设计足够灵活的架构以适应新的创新,同时,与可编程设备相比,还要实现高效加速。要达到这一平衡,既需要足够的固定功能以获得性能和效率,通常又要有足够的可编程性以适应新网络和算法的发展速度。

传统芯片开发模式受冲击?

边缘场景复杂、算法复杂、任务碎片化,体现在硬件层面,芯片底层设计要考虑如何用软件定义硬件,给未来的软件开发留出足够多的调整迭代空间,达到应用场景的多样化和复杂化;体现在软件栈层面,包括指令集、底层编译器、高层编译器、算法、应用框架支持等全链条,都需要有能力覆盖和支持。这意味着既有的芯片开发模式,无论硬件还是软件层面,都在遭受新的冲击。

灵汐科技华宝洪认为“实现碎片化产业的融合”非常关键。芯片设计首先要考虑边缘计算场景,进行定制化的优化;一旦流片完成,后续所有场景和复杂任务的更新,都通过软件来迭代。也就是说,通过软件定义硬件的模式驱动需求的最终落地,即基于软硬件解耦技术屏蔽底层硬件的差异,实现碎片化应用的落地。

事实上,对于五花八门的芯片架构,下游厂商往往无法真正做到“高效地利用硬件资源”。 时擎科技于欣表示,这就需要芯片原厂做得更多一些,不再是简单提供一个芯片,而是针对客户要求的一个完整的解决方案。这对于芯片原厂的算法和应用开发能力,肯定是带来更高挑战。 “当然还有一种办法,就是把芯片做得更“好用”,对开发者更友好”,他补充,“这是两个努力的方向,本质上也不冲突。毕竟芯片原厂根本的出发点,还是如何更好地配合客户,以芯片为核心和基础,提供客户所需要的增值服务。”


如何寻求新突破?

时擎科技于欣认为,AI芯片设计可以遵循两个大的思路:一是如何对开发者更友好,从而能够进行最优化设计,让芯片里的每一个晶体管都能真正派上用场;二是通过专用的架构,让算法和芯片融合得更紧密。

从目前所看到的主流方向来看,除了智慧安防、智能汽车等,更多是整体智能化生活的演进在驱动着边缘计算的发展。“不见得必须是新生的场景和设备形态,目前存量的终端设备的智能化升级,也是很大的一个推动力。当然这是一个过程,一定需要时间。而决定这个过程进展快慢的,一方面要看AI技术是否带来真正的便利,另一方面还要看成本上是否可行、可落地,从这个角度来说,物美和价廉一个都不能少”,于欣补充。

谈及下一步的突破点,灵汐科技华宝洪认为“要多向人脑学习”。传统意义上单纯依靠堆大数据、高算力的方法或将成为过去式,要想有新的突破,必须有新的思路,而类脑计算就是关键之一。从过往的发展来看,基于碳基已经进化到人脑这个最强大的通用智能体,基于硅芯片已经可以输出一些强大的机器智能,那么,借鉴脑科学的基本原理发展类脑计算,从而支撑人工通用智能的发展,是完全有可能的。“类脑计算将有可能成为一把突破传统AI计算瓶颈、打开通用人工智能大门的钥匙,从而也就破解了后摩尔时代所带来的新挑战”,他表示,“此外,边缘计算芯片多以SoC为主,可以自研也可以直接采购第三方IP,在此背景下,拥有独立研发AI计算 IP核的能力也成为了企业的核心竞争力和突破点。”

关于AI芯片应用的驱动力,Imagination Rob Fisher认为,自然语言处理是一大方向。例如最近在语音转意图引擎领域的研究和开发,已经实现了在极低功耗架构中构建精确系统,从而可以加速小型神经网络。此外还有自动驾驶系统,正在推动芯片设计人员创建极快的加速架构,以实时处理大量的传感器数据。


边缘训练尚乏动力?

目前在边缘侧,仍以推理任务居多。如果要进一步满足低延迟、自适应响应的要求,是否有必要在边缘侧进行一定量的训练任务?如果要进行训练,还有哪些挑战需要解决?

上海雪湖科技有限公司副总裁赵小吾认为,训练所需要的算力比推理多很多,目前还没看到太多在边缘侧进行训练的需求。不过,如果自适应学习模型能满足边缘计算设备对精度、性能、功耗和成本的要求,相信未来会看到更多的应用需求。

时擎科技于欣也认为短期内不会出现这种需求。绝大部分的训练对延时、甚至成本并不是非常敏感,这些任务完全没有必要放在边缘去做。他强调,所有的工作任务还是有边界的,还是要扬长避短地去完成,这是由内在的逻辑决定的,没有必要为了跨界而去跨界。

灵汐科技华宝洪则表示,车路云协同、自动驾驶等领域,由于实时性、安全性的要求,均需要在边缘侧进行训练。未来,在线学习、小样本学习、复杂场景中实现动态自适应调整等需求都会在边缘侧的训练中得到解决。

他认为,一方面,边缘侧仍以CPU、GPU等传统芯片为主,训练任务所带来的高能耗、高价格等是固有的挑战;另一方面,边缘侧的特点决定了在边缘进行训练,将会面临大数据不足、离线训练时间代价高等难题,这些挑战严重阻滞了边缘训练的发展。边缘训练要取得长足发展,离不开新型计算架构的支撑,实现途径包括在线学习、小样本学习等。


方向:走向更强的智能边缘

智能边缘确实是一个热词,未来的市场空间也非常庞大。但是,业界当前对它的理解和部署仍在摸索中。比如,电信运营商的移动边缘计算(Mobile Edge Computing)叫智能边缘,云厂商、CDN前置的一些业务类型也可以叫智能边缘。未来,各行各业的数字化转型虽然都需要进行智能边缘的部署,但是还要取决于具体的应用需求,例如延迟、带宽、价格和能耗等方面。

从实现方式来看,现在很多智能边缘的能力多数通过一个盒子(边缘计算盒)的形式在提供,能力非常有限,实际上相当于是对MEC简单的扩展,是比较弱的智能边缘。

英特尔宋继强表示,如果未来要用在智能制造、港口、矿山等领域,需要网络、计算、存储等更多功能,那就意味着对数据量的处理是巨量的,对AI算力要求更高,而且有实时要求。因此,弱的边缘肯定是不够的,一定要向更强的边缘去演进。

他认为服务机器人是边缘计算一个非常典型的应用场景,因为持续学习的能力对于机器人非常重要。例如未来要走入家庭中起到照顾、陪伴作用的机器人,它需要具备长期的、可逐步提高的服务能力,这就需要从具体场景中逐渐学习、构造对场景的理解。通过进一步分析场景中的相互关联,形成机器人自己的记忆,才能进行后续的能力提升。

如果这个学习过程只靠机器人自身完成的话,对硬件的要求太高,这就需要用到边缘计算,一方面将不需要即时响应的计算卸到边缘侧,另一方面也可以利用边缘计算进行存储,相当于通过智能边缘,帮助机器人这类前端设备,具备了更大的存储和计算容量,获得了自体之外的另一个“大脑”。
『本文转载自网络,版权归原作者所有,如有侵权请联系删除』

您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

提取码
复制提取码
点击跳转至百度网盘