芯片按月甚至年计算的设计周期与AI算法按周甚至按天迭代的周期之前的矛盾越来越明显,为了能够保证设计出的芯片能够更好地满足快速迭代的算法,Google团队将AI强化学习方法应用于芯片设计中复杂的“布局”工作当中,获得了显著的效果提升。而两大EDA巨头Synopsys和Cadence也推出了具有AI功能的工具。看来,AI应用于AI芯片的趋势已经显现。
如今许多人在大量的资金支持下通过大量的工作来开发新的AI芯片,这些芯片的目的是更快和更高效地执行AI算法。但问题在于,芯片的设计通常需要花费一两年甚至三五年时间,并且机器学习(ML)算法的发展速度非常快,这么长的芯片设计周期难以满足算法更新的需求。
理想情况下,你设计出的芯片是能够很好地满足当今AI算法的需求,而不是两到五年前的AI算法。而Google的解决方案是——让AI设计AI芯片。
Arxiv网站上的一篇论文的作者写道:“我们相信,AI将能够缩短芯片的设计周期,在硬件与AI算法之间建立共生关系,并进一步推动彼此的进步。”。
“我们已经看到,有些算法或神经网络架构在现有的AI加速器上效果不佳,因为加速器设计类似于两年前,而那时这些神经网络架构和算法并不存在。” Google的高级研究科学家Azalia Mirhoseini表示,“如果缩短设计周期,我们可以缩小差距。”
Mirhoseini和高级软件工程师Anna Goldie提出了一个神经网络,可以学习并设计一些需要耗费大量时间的部分,这个工作被称作“布局”。在对芯片设计进行了足够长时间的学习之后,它可以在不到24小时的时间内为Google Tensor处理单元完成设计,在功耗、性能、面积(PPA)都超过了人类专家数周的设计成果。
布局之所以如此复杂且耗时,是因为它涉及到布局逻辑和内存块,或这些块的群集(也称为宏),要达到芯片功耗和性能最大化,而芯片面积最小。这当中面临的挑战是,必须在遵守互连密度规则的同时进行所有这些工作。
Goldie和Mirhoseini的目标之所以在芯片的布局,是因为即使使用当今的先进的设计工具,也需要人类专家花费数周的时间迭代才能得出可接受的设计。
Goldie和Mirhoseini将芯片布局建模为强化学习问题。与典型的深度学习不同,强化学习系统不会使用大量标记的数据进行训练。相反,他们会边做边学,并在成功时根据有效信号调整网络中的参数。在这种情况下,有效是降低功率、改善性能和减少面积组合的替代指标。
结果就是,布局机器人执行的设计越多,其效果就会越好。
该团队希望像他们一样的AI系统能引领,在相同时间内设计更多的芯片,并且运行速度更快、功耗更低、制造成本更低、芯片的面积更小的设计。
除了谷歌,两大EDA巨头也开始在其芯片设计工具中加入AI。Synopsys推出的是用于芯片设计的自主AI应用程序——DSO.ai(Design Space Optimization AI)。DSO.ai通过获取由芯片设计工具生成的大数据流,并用其来探索搜索空间、观察设计随时间的演变情况,同时调整设计选择、技术参数和工作流程,以指导探索过程向多维优化的目标发展。
Cadence也推出了新版Cadence数字全流程,这一新版的流程采用了支持机器学习(ML)功能的统一布局布线和物理优化引擎等多项业界首创技术,吞吐量最高提升3倍,PPA最高提升20%。
总的来说,两大EDA公司加入AI的芯片设计工具可以缩短芯片的设计时间高达10倍,芯片PPA提升20%。