2022年3月25日,地平线 BPU 算法负责人罗恒以《地平线如何追求极致效能?》为题展开了一场别开生面的线上分享。作为「地平线核心技术系列公开课」的“奠基之课”,罗恒从当前 AI 芯片的最大挑战,到 的理想性与局限性,再到地平线 BPU(Brain Unit,地平线自研人工智能专用处理器架构)的演进之路娓娓而谈,结合人工智能的发展趋势深度剖析了地平线通过软硬结合挑战极致效能,再造“摩尔定律”的技术历程。
AI芯片的挑战
自2015年起,AI 芯片逐渐成为人们所关注的趋势。产业参与者们都希望能够做出极具竞争力的芯片,种种挑战中最大的莫过于算法发展快和芯片迭代慢之间的矛盾。
以2016年提出的人工神经网络为例,它能够模仿出让真假难辨的人类声音,但其计算量之大甚至无法在当时最强大的GPU上实时处理,接近一分钟的延迟让这项革命性突破始终无法真正的得到应用。2017年,算法优化后的 让计算效率提升了 1000 倍,谷歌将其成功应用到谷歌助手。假如某公司在此时(2017年)准备推出一款用于嵌入式系统的芯片,使得手机等移动场景也可以应用这项 AI 成果,是非常合理的选择。但到了 2018 年,算法又发生了优化,核心计算方式历经 RNN、 已升级到了 RNN,让手机 CPU 也可以运行。而 2017 年研发的芯片,在 2019 年才能面世,这是一个悲伤的故事,反映了算法快速发展与芯片迭代较慢之间的矛盾。
回到地平线的主航道视觉感知上。2012 年的 在 上的突破, 拉开了这一波的 AI 浪潮的序幕,2012 年到 2016 年,各种网络出现,起初致力于提升 ,VGG 模型扩充过快受限于 GPU,接下来的模型开始适度的考虑精度和算力的折中, 开始给出扩充网络算力获得不同精度的方案。2016 年之后, 精度逐渐饱和,计算效率优化得到重视,算法实现开始追求用更少的计算得到更高的精度,、、就是这一时期的“新”卷积神经网络代表。同时也开始了使用机器学习方法自动化搜索网络,以 为代表,但主要还是在搜索网络子结构。到了 2019 年,卷积神经网络架构演进逐步收敛,子结构收敛于 v2 的子结构,模型扩充方法则来自于 的 。
以上 AI 算法的演进趋势对 AI 芯片厂商之间的竞争产生了极为重要的影响:固然芯片架构设计能力,芯片SOC 的能力非常重要,但是由于算法在不断的变化,如何能够使得设计出来的芯片在面世的时候还能够符合算法的最新的进展,在现在乃至可预见的未来都将是 AI 芯片竞争的关键点。
什么是更好的 AI 芯片?
算法演进与芯片迭代的脱节是摆在面前的挑战,那么,如何为 AI 芯片赛道上的玩家设立清晰的目标?如何拉通研究与市场,拉通工程与开发,并通过最优代表性的任务在实际场景中的测试反映机器学习算法的演进呢?目前通用的基准测试是 。
但事实上,2019 年 V0.5 使用的分类模型仍是 和 V1,检测模型则是 V1和。从这一点来看, 尽管是刚刚出现的,但由于采用相对较老的模型其已经落后于算法进展两年了。此外,由于量化模型的普及型, 希望设计统一的标准,但却因为精度问题最终选择降低标准()。
提交者和标准设计方之间的博弈,使得任务往往没有办法像预期那样更新模型。但地平线始终认为,评估 AI 芯片的真实效能需要与时俱进的标准。
因此为了更严格的测试真实效能,选用了目前如前所述的视觉领域最高效的 V2 结构( 并不改变计算方式,其中的 SE 结构也被 证明并不是关键因素)。实测表明,工艺领先两代的两款竞品,在 V2 的帧率上显著落后于地平线征程二代芯片。
除此之外,想要实现极致能效还需要考虑到其他因素。对于芯片来说,功耗最大的地方并不在于计算,还在于数据的搬运,如何能够减少 DDR( Data Rate SDRAMjava芯片算法 地平线结合人工智能的发展趋势,“算法+芯片+工具链”软硬结合再造“摩尔定律“!,双倍速率同步动态随机存储器)的吞吐,其实是降低功耗的一个关键的地方。这方面地平线也做了针对性的优化,在帧率超过竞品芯片的情况下只有竞品 1/4 DDR 吞吐率。从而,一方面用户可以使用更低成本的DDR,另一方面则是设计方不可能假设用户加速模型的时候是 DDR 独占,一定需要和 ISP、Codec 以及各种应用一起使用带宽,征程二代的低 DDR 吞吐率使得用户可以充分使用算力而不受限于 DDR 带宽。
BPU 软硬结合打造极致效能
回到设计征程二代 BPU 的2017年,地平线观察到学术界的两个信号,和 分别使用了 在 高精度和中低精度都取得了很好的效率。
团队迅速在地平线关心的视觉任务、自由数据上做了验证。证明了 带来的效率提升。进而做了初步的优化,8bit 量化了 模型,量化模型精度>浮点模型精度*0.99(半年后量化论文发表,但精度并不理想);尝试了使用1x1 扩大 的 数目同时减少1x1 引入的计算量(与一年后发表的 v2相似);尝试了不同 size,发现扩大 size 到 7 可以提升精度在只付出很小的计算代价下(与两年后的 论文一致)。在完成初步验证和优化之后,做了 BPU 的 FPGA 版本,演化成为后来的 (曾获 2019 年 CES 创新奖,这也是车辆智能和自动驾驶技术分类奖项下唯一获此殊荣的中国产品),实车测试了所有方案。
以上的验证、优化、实际应用场景打磨,为地平线的架构设计提供了参考,使得地平线从一开始就面向未来的算法趋势进行优化,在今天也得到了证明。
可以说,地平线的最大特点,就是对关键算法的发展趋势进行预判、在最重要的场景中垂直打穿java芯片算法,前瞻性地将其计算特点融入到架构设计当中,使得 AI 处理器经过两年的研发,在推出的时候,仍然能够很好地适应最新的主流算法,同时保证满足最关键应用的需求。因此,和其他典型的 AI 处理器相比,地平线的 AI 处理器,随着算法的演进趋势java芯片算法,始终能够保持相当高的有效利用率,从而真正意义上受益于算法创新带来的优势。技术先发优势推动商业化进程,领先的商业落地探索又反哺技术进步。在 AI芯片这条硬科技创新道路上,地平线将继续坚持深耕“算法+芯片+工具链”基础技术平台。预计今年内,地平线将会推出新一代车规级AI芯片,以人工智能赋能万物,让每个人的生活更安全、更美好!