DeepSeek致谢 腾讯大模型网络提速技术方案贡献
日期:05-09
晨报讯(南京晨报/爱南京记者 杨静)腾讯技术团队针对DeepSeek开源的DeepEP通信框架进行深度优化,使其在多种网络环境下均实现显著性能提升。经测试,优化后的通信框架性能在RoCE网络环境提升100%,IB网络环境提升30%,为企业开展AI大模型训练提供更高效的解决方案。相关技术方案获得了DeepSeek公开致谢,称这是一次“huge speedup”代码贡献。
自今年2月DeepSeek开源包括DeepEP在内的五大代码库以来,该团队便向业界展示了如何利用有限的硬件资源实现接近万卡集群的性能。在这些技术中,DeepEP凭借突破性的方法提升了300%的通信效率,成功解决了MoE架构大模型对英伟达NCCL的依赖问题。
但该技术在成本较低、适用面更广的RoCE网络环境中表现不佳,限制了其在更广泛场景的应用。这一痛点引发了开源社区的持续讨论。
腾讯星脉网络团队基于在RoCE网络领域的深厚积累,在DeepEP开源后便展开技术攻关,发现两大关键瓶颈:一是对于双端口网卡带宽利用率不足,二是CPU控制面交互存在时延。
其次,腾讯还着力解决了GPU通信中的CPU控制瓶颈问题。通过基于IBGDA技术的优化,腾讯使得“控制面”场景的操作也可以绕过CPU的“中转”,进一步降低了延迟和能耗,提升了整体通信效率。
同时,GPU直接“对话”时存在的传输顺序混乱难题,腾讯提出了“QP内时序锁”机制,使得多个GPU间的数据传输能够精准、按顺序完成,即使同时处理1000多个数据传输任务,DeepEP也能自动理顺先后顺序。
据了解,目前该技术已全面开源,并成功应用于腾讯混元大模型等项目的训练推理。