芝能智芯出品
Marvell通过创新设计,推出定制的高带宽存储(HBM)计算架构,为超大规模XPU需求量身打造解决方案,架构显著提升了内存带宽和容量,同时降低了功耗,为超大规模计算场景的性能优化和能效改进提供了新思路。
我们将从Marvell解决的核心问题、潜在的行业价值及未来建议出发,全面解析这一突破性技术。
Part 1
Marvell 定制 HBM 架构的核心问题与解决思路
Marvell 与美光、三星和 SK 海力士三大 HBM 供应商合作,定制 HBM 计算架构,旨在优化 HBM 与 XPU 之间的互连。
在传统架构中,HBM 通过硅中介层上的标准线路连接到 CPU 或加速器(XPU),而 XPU 通常有两个或更多由 DRAM 堆栈和基片组成的 HBM 堆栈。
Marvell的定制HBM架构针对当前超大规模计算中的三大核心问题提供了解决方案:
● 有限的内存密度与带宽瓶颈:HBM在传统互连方式中,需要大量硅片面积用于连接,占用了宝贵的芯片空间,并限制了更多HBM堆栈的部署。
Marvell通过重新定义HBM和XPU之间的接口,将互连所需的物理空间减少,从而使更多的HBM堆栈可以靠近XPU,大幅增加内存密度和带宽。这一创新为超大规模AI集群等高性能计算应用带来了突破性提升。
● 能耗过高的问题:随着AI集群规模的扩大,功耗已成为制约其扩展的关键问题。
Marvell的cHBM(定制HBM)解决方案优化了接口设计,通过减少引脚数量和优化连接逻辑,将接口功耗降低了70%。这一改进不仅减少了总体能耗,还显著提升了功率利用效率,为企业在大规模部署中节省了运营成本。
● JEDEC标准的局限性:标准HBM架构(如HBM4)在引脚数和接口设计上存在刚性限制,难以满足超大规模计算对灵活性和定制化的需求。
Marvell的cHBM通过跳脱JEDEC标准,采用高度定制化的内存接口,释放了芯片区域用于集成额外的逻辑功能(如数据压缩和安全模块),为客户提供更高的性能可定制性。
Marvell 意识到在超大规模计算中,随着数据量和计算复杂度的急剧增加,传统的 HBM 连接方式已经成为性能提升和成本控制的瓶颈。
为了突破这一局限,他们考虑从最基础的互连架构入手进行定制化。通过与 HBM 供应商紧密合作,利用定制接口来重新设计 HBM 与 XPU 的连接方式,在不牺牲计算性能的前提下,最大化地提高内存利用率和降低功耗。
这种定制化思路是基于对超大规模计算核心需求(即高带宽、大容量、低功耗和高性能 I/O)的深刻理解而产生的。
Part 2
AI领域持续的创新
Marvell的定制HBM架构为超大规模计算带来了近4倍的吞吐量提升,未来带宽潜力有望提升至当前的10倍。这一性能飞跃将助力超大规模AI集群实现更复杂的计算能力,满足日益增长的AI模型需求。
超大规模企业每年数百亿美元的资本支出中,能源费用是重要组成部分。通过节能设计,Marvell的解决方案能够在全球范围内大幅减少数据中心的能源消耗,对运营成本和可持续发展目标产生深远影响。
cHBM的出现为存储架构开辟了新的发展方向。通过释放内存接口限制,Marvell不仅推动了HBM厂商的技术迭代,还为客户实现深度定制化架构奠定了基础。
Marvell 在定制架构的基础上,共同研发下一代 HBM 技术,进一步优化内存性能和功耗。除了超大规模 AI 集群, 可以将这种定制 HBM 计算架构拓展到其他对计算和存储性能有高要求的领域,如云计算、高性能计算(HPC)、数据中心等。
通过在不同领域的应用,扩大市场份额,提高产品的通用性和认可度。在减少空间占用和降低功耗方面取得了显著进展,但在未来,应继续加强在芯片设计和制造工艺方面的研发。例如,研究如何进一步缩小芯片尺寸,提高集成度,同时保证甚至提高内存性能,以应对不断增长的数据处理需求。
小结
Marvell定制HBM计算架构的推出,标志着超大规模计算领域的一个重要转折点。
通过解决性能、能效和标准限制等核心问题,AI集群规模的进一步扩大,节能和性能优化将成为数据中心发展的主旋律,而cHBM方案的广泛应用无疑将对行业生态带来深远影响。
评论(0)