人工智能系统的巨大电力需求使半导体生态系统的可持续性越来越受关注。芯片行业需要能够生产更高效、更低功耗的半导体。但随着大语言模型的广泛使用以及需要处理的数据量的不断增加,对提高处理速度的需求也在增加。据Gartner预计,到2026年,50%的组织将采用支持可持续性的监控来管理其混合云环境的能源消耗和碳足迹指标。Gartner表示,这是必要的,因为到2027年,40%的数据中心可能会受到电力限制。
如果设计正确,半导体可以帮助实现可持续发展。即使是为实现最高性能而设计的AI/ML芯片也是如此,只要它们能够使用更少的算法更快地完成计算,这可以总体减少能源消耗。这就是定制加速器发挥作用的地方。与通用处理器相比,它们可以提供显著的改进,而且通常协同工作。
扩大计算无处不在,而且一切都需要更加高效。没有智能技术,智慧城市、智能基础设施和智能交通就无法实现,而人工智能正日益推动智能技术的发展。随着人工智能越来越根深蒂固,半导体生态系统正试图将其对资源的影响降至最低。
如今的数据中心已经消耗了大量的电力。全球每年需要460太瓦时(TWh)的电力。这相当于德国生产的全部能源。波士顿咨询集团(Boston Consulting Group)表示,在美国,数据中心的电力消耗在2022年占美国总用电量的2.5%(约130TWh),预计到2030年将增加两倍,达到7.5%(约390TWh),这相当于约4000万户美国家庭使用的电力,或美国家庭总数的近三分之一。
ARM基础设施集团硬件生态系统总监Imran Yusuf表示:“AI有可能超越过去一个世纪创造的所有变革性创新。但AI计算的电力需求巨大,随着各公司争相打造AI能力,它们可能会无法满足他们的可持续发展目标。未来的AI模型将继续变得更大、更智能,从而推动对更多计算的需求,这会增加对电力的需求,形成良性循环。简而言之,没有电,就没有AI。我们如何平衡对电力的需求和继续推动AI革命的需求?答案是找到降低大型数据中心和AI计算系统电力需求的方法。”
其他人也同意这一观点。西门子EDA营销总监Neil Hand表示:“归根结底,设计要更高效。目前的算法,效率有高有低。从功耗角度来看,最不高效的方法是在通用处理器上运行原始代码,一旦运转起来——就可以在CPU上烤一些棉花糖了,因为它会变得非常热。”
基于NVIDIA Grace Blackwell GPU的服务器机架需要120千瓦。但据Ansys总监Rich Goldman称,它们的性能也比前几代产品高出1,000倍,相当于每单位功率的计算能力提高了500倍。“如果建立一个CPU数据中心,并且想要进行大量计算,可以用最新的GPU替换CPU,并在保持相同计算能力的情况下降低功耗。但我们仍然会面临巨大的电力问题,因为有了AI,我们就会进行更多的计算,但这会有所帮助。”
Hand认为,专门为人工智能打造的Grace Blackwell类型的专用硬件是下一步的发展方向,但他补充表示,由于这些仍然是通用芯片,因此还有很多工作要做。他说,可以构建更高效的人工智能芯片,用于分类和处理广泛的分类。
Hand 指出:“这就是我们所看到的 NVIDIA 在做的事情,也是我们所看到的 Google 和许多云服务提供商在做的事情。我们可以提高效率,使这些芯片能够更高效地生产,并推动与可持续性相关的一切工作。然后,你可以通过新技术再进一步,采用一个完全训练好的AI模型并将其转换为硬件。这将是你可以达到的最高效率,而且它只需要一小部分电力。但此时你就被锁定了,因此你将面临AI快速加速和变化的挑战。你可以锁定多少?从Intel和Qualcomm最近发布的移动CPU中我们可以看到这一点,而Apple已经在这方面做了几代产品。现在你可以在芯片上拥有TPU、NPU或任何你想要的神经网络,并且这种趋势将会持续下去。”
Quadric首席营销官Steve Roddy对此表示赞同,“推动AI/ML模型爆炸式增长的力量是巨大的。生成式AI浪潮正在改变个人和企业的工作方式,可能影响全球数百万个工作岗位。半导体/EDA/IP生态系统无法合理地改变大规模AI模型演进的曲线,这些模型正受到科技巨头每年数千亿美元的投资推动。但半导体和IP行业可以帮助指明方向,从根本上减少在日常推理使用中运行这些GenAI模型的能源消耗。”
GenAI推理面临的最大可持续性挑战是将模式转换为低功耗整数量化格式。“创建GenAI模型的数据科学团队似乎没有意识到,他们以浮点格式发布的参考模型每次推理消耗的能量是转换为整数格式的相同模型的10倍(比较32b浮点乘法累加与8 x 8或4 x 8整数MAC),”Roddy表示,“无论推理发生在数据中心还是设备上,转换为低功耗整数格式所带来的节能效果以及由此带来的可持续性效益都是巨大的。目前存在这种差距是因为创建新GenAI模型的数据科学家是数学家,而不是嵌入式工程师。”
当设计团队决定是时候转向硬件时,尽管 AI 算法正在迅速发展,但会存在一定的稳定性。Hand表示,“这有点像我们进入TPU、NPU、XPU的进化阶段时。一般来说,它们在一段时间内并不是很有用,因为核心构建块的变化更加频繁。但在过去几年里,这些核心功能已经稳定下来,现在你可以制造更节能的硬件。随着事物开始稳定,这里的情况也会如此。总会有新的创新。总会有更强大的算法需要新的硬件,而我们最终可能会使用更多的硬件,因为数据中心是巨大的能源消费者,但它们抵消了什么?从生产力的角度来看,这就是整个问题。它们是否让我们能够做我们本来无法做的事情。但其中很多只是取决于它是复杂的AI芯片还是其它任何类型的芯片。EDA方面的考虑大致相同。我们提高产量和性能,降低功耗。”
另一个需要考虑的因素是如何为数据中心生成足够的电力。你会将这些数据中心放在电力不足的地方吗?“你将会看到数据中心更多地出现在电力过剩的地方,而电力过剩的国家将成为数据中心枢纽,”Goldman表示“他们将在那里建立数据中心,然后输出你从这些电力中获得的知识。”
这将会伴随着新的、创新的能源来源。“我们听说过使用小型核电站为单个数据中心供电的设想,以及将它们安装在油井上的应用,这样我们现在排放到空气中并污染空气的甲烷就可以被燃烧,并产生电力来运行数据中心,”Goldman表示,“我们必须要有这样的创新来为这些数据中心供电。”
数据中心效率是AI可持续性讨论中的一个重要议题,其中,移动数据所需的电力与数据实际需要移动的距离之间存在持续的冲突。Rambus杰出发明家、研究员Steven Woo解释说:“我们看到人们用chiplet构建非常大的处理器,部分原因是虽然他们知道可以用两个通过总线连接的芯片构建一个等效系统,但在它们之间移动数据将消耗大量电力。连接的东西越多,数据传输的距离就越短,移动数据所花费的电力就越少,但问题是功率密度也上升了。你必须提供更多的电力,还必须为它降温。所以,问题在于,我该如何为它降温?通过不让芯片彼此远离,我可以节省一些电力,但现在必须向这个体积中提供更多的电力,还必须为它降温,这就是系统级架构师现在面临的两难局面。”
在数据中心层面,服务器越来越多地使用先进的冷却技术。“越来越多的人开始谈论液体冷却,包括冷却板,”Woo表示,“Google一直在做这件事,NVIDIA也一直在为Grace Blackwell谈论这件事。这是当今一些超级计算机使用的技术,它并不是什么外来技术或新技术。液冷技术的普及只是时间问题。在可预见的未来,可能会有一些系统采用空气冷却,但你会看到更多的系统采用某种带有两相冷却系统的泵送液体。”
这种方法的最极端形式是浸没式冷却。“这可能不是近期可行的数据中心服务器冷却解决方案,但如果我们耗尽了管道液体的使用空间,它可能就会变得可行,”他补充道,“一旦你能够用液体或类似的东西来管理热量,那么你就可以限制芯片经历的温度范围,这意味着如果它进行热循环,可能不会达到极端温度。这是好事,因为这样一来,你就不会在这个更大的范围内出现热膨胀和收缩,一些其他与可靠性相关的故障也会得到一定程度的缓解。”
大数据分析还通过基于数据中心使用情况识别芯片设计趋势,在可持续发展中发挥着重要作用。“这里有一整套动力,”Synopsys杰出架构师Adam Cron说道,“关注点在芯片层面。然后是它所在的电路板、机架和场所,然后一路回到传输线。数据中心经理希望看到的是平稳的龙骨。不要把事情搞得太糟,因为如果你想在这里得到很多,那么你可能不得不在那里放弃,反之亦然。”
大数据分析还通过基于数据中心使用情况识别芯片设计的趋势,在可持续性方面发挥作用。“这是一整条电力链条,”Synopsys杰出架构师Adam Cron表示,“关注点在于芯片级别。然后是你所在的板卡、机架和机房,最后它一直追溯到输电线路。数据中心管理者希望看到的是一条平稳的航线。不要太过颠簸,因为如果你这边想要很多,那么那边可能就得减少,反之亦然。”
理想情况下,电力消耗会在各处减少。“数据中心正在使用全球1%到2%的电力,而且它们正在以毁灭性的速度使用所有电力,”Cron说道。
西门子的Hand指出,制造可持续半导体的努力与良率和可制造性之间存在着有趣的联系。“这些芯片越来越大。因此,良率成为一个更大的问题。我们在良率方面做得越多,对可持续发展就越有利,因为无效的芯片就是资源的浪费。好的芯片总是更好的。那我们能做些什么呢?在EDA-半导体生态系统中,我们做了很多工作来提高良率。具有讽刺意味的是,其中一些工作使用了人工智能。某些商业晶圆厂解决方案使用人工智能来获得更好的良率,人工智能的可持续发展成本与人工智能的可持续发展机会以及它们如何协同工作之间的相互作用非常有趣。一般来说,这是一个净正面影响。但如何衡量它呢?我不知道你能否做到,因为很难找到原始数据来说明训练这些模型的成本,使用它们的成本也很高。但你如何衡量这些见解呢?试图计算出这种影响可能需要一整个博士学位才能完成。这可能是一项值得尝试和计算这种影响的博士论文工作。我相信有进一步完善自动化的机会,并可以在这里利用人工智能技术,这只是EDA在做它自己的事情。”
热分析和老化也将影响AI数据中心的可持续性。当然,这并非AI独有,它适用于所有芯片,”Hand说道,“您可以开始了解芯片级、子芯片级的热量,以了解其中的影响。现在,我可以把3D堆栈放在一起并使其可靠?我可以在足够的功率水平下运行这些设备,而不会加速它们的消亡吗?这些功能将使我们走得更远。
此外,随着我们开始扩展数字孪生的定义并开始扩展其中包含的内容,您可以开始看到系统级的影响。虽然它不是针对AI和可持续性的,但这是我们开始看到效率大幅提升的地方,因为目前有多少是过度设计的?有多少是浪费的?一旦我们能够开始拥有更一致的产品级和问题级设计,也会有好处。
具体来说,回到人工智能,要实现真正的多领域综合数字孪生,人工智能是必不可少的,因为人工智能将为你进行跨领域分析、替代模型提取和自动保真度自适应。所有这些都会有。我们需要的人工智能越多,我们使用的人工智能就越多。”
ARM的Yusuf表示:“多年来,硬件和软件供应商都明白,计算扩展和可持续性可能会与现实发生冲突,但如果行业利用其生态系统能力,情况就不必如此。以Arm Total Design为例,这是一个由整个半导体行业领先公司组成的生态系统,致力于为AI/ML用例提供高效的定制芯片解决方案。因此,它为合作伙伴提供Arm Neoverse计算子系统 (CSS)、预集成IP和EDA工具、设计服务、代工厂支持和商业软件支持的优先使用权。它还代表了一种促进协作、灵活性和创新的新思维,同时理解AI时代需要与全球可持续发展目标共存。”
变化的是,可持续性已经从“可有可无”变成了“必须具备”。从行业领导者的角度来看,英特尔提出了七大使用人工智能的秘诀,避免高昂的环境成本。此外,英特尔认为,有意将人工智能应用于设计是实现可持续发展目标的关键。有了这种意图,那些执行人工智能计划的人就可以从优化的工作负载中获益,而积极主动的项目设计和I 管理方法对于最大限度地发挥人工智能计划的影响和最大限度地减少碳足迹至关重要。
从根本上讲,减少人工智能对可持续发展的影响将取决于技术本身。Quadric的Roddy表示,半导体生态系统可以通过“提高人们对使用低精度数据格式必要性的普遍认识,以及构建更多自动化工具来弥合数学家和嵌入式工程师之间的差距”来提供帮助。可持续发展重要性日益突出IC行业能做些什么?