- N +

“十万卡集群”要来了,科技巨头竞逐AI算力极限

“十万卡集群”要来了,科技巨头竞逐AI算力极限原标题:“十万卡集群”要来了,科技巨头竞逐AI算力极限

导读:

快科技月日消息据媒体报道博主滤镜粉碎机用一段秒换脸*三小时就骗走自己妈妈一年的收入该*上线后引发关注对此有的受访者表示凭借肉眼辨认不万卡集群被业界视作是这一模型竞赛的入场券现在...

快科技9月7日消息,据媒体报道,博主滤镜粉碎机用一段15秒AI换脸*,三小时就骗”走自己妈妈一年的收入,该*上线后引发关注。对此,有60%的受访者表示,凭借肉眼辨认不

“万卡集群”被业界视作是这一 模型竞赛的“入场券”,现在,十万卡集群”成为科技巨头们竞逐的新高地。

“很快就会有更多的10万卡集群出现。”9月25日, 集团执行副总裁沈抖在 智云大会上这样说。

他提到,过去一年已经感受到客户的模型训练需求猛增,需要的集群规模越来越大,与此同时,大家对模型推理成本的持续下降的预期也越来越高。这些都对GPU管理的稳定性和有效性提出了更高要求。当天, 升级AI异构计算 百舸4.0,具备了10万卡集群部署和管理能力。

事实上,这一轮生成式人工智能爆发的背后,一定程度上归功于“大力出奇迹”,业界通过不断增加算力堆叠,实现大模型性能的飞跃。万卡集群也因此被业界视作是进入AI核心圈的“标配”。但现在,即便是万卡也不能够完全满足需求。不仅 ,越来越多的行业巨头正在布局十万卡集群,以追求更高的计算效率和大模型性能。

不久前的云栖大会上,阿里云展示了围绕 AI 时代的新基建,其中单网络集群已拓展至十万卡级别,正在从芯片、服务器、网络、存储到散热、供电、数据中心等方方面面,重新打造面向未来的 AI 先进基础设施。

9月初时马斯克在社交媒体上宣布,旗下AI初创公司xAI 打造的 AI 训练集群 Colossus 已经正式上线,搭建用时 122 天,共有 10 万块英伟达 H100 GPU 加速卡,而在未来几个月将再翻倍增加10万块GPU,其中5万为更先进的 H200。

更早之前,Meta首席执行官马克·扎克伯格曾在年初宣布计划购买35万块英伟达H100 GPU,将Meta的算力扩展到相当于60万块英伟达H100 GPU的水平。OpenAI没有透露过确切的GPU使用量,但业界猜测接近十万块。百川智能CEO王小川曾对 财经记者透露,自己此前在硅谷走访时,OpenAI正在设计能够将1000万块GPU连在一起的计算模型,“这种想法像登月一样。” 

“今天一家通用大模型公司如果没有万卡,就不好说自己是大模型公司了。” 香港科技大学校董会 沈向洋更在不久前调侃:“谈卡伤感情,没卡没感情”。而摩尔线程CEO张建中也在接受记者采访时表示,在AI主战场,万卡是 标配,因为大模型竞争激烈,缩短训练时间是企业的基本诉求。

算力是推动大模型发展的核心动力。但从千卡到万卡再到十万卡,不是算力的简单堆叠。在科技巨头竞逐AI算力极限背后,沈向洋指出,从2012年开始,每年大模型需要的算力都在增长,一开始几年是六七倍的增长,最近几年稳定下来,每年是四倍左右的增长。而随着大模型的参数越来越大,大模型对算力的要求已经由线性增长进化到平方向的增长。

但构建十万卡集群是一项复杂的系统工程,不仅意味着算力的指数级增长,还涉及复杂的技术和运营挑战。这些集群需要 能计算、高能耗管理、高密度机房设计、高稳定性训练等一系列问题。而且即便智算中心已配备了超大规模的集群,最终能否将这些算力有效释放,还取决于算法、软件架构的优化与调度能力。

沈抖对包括 财经在内的媒体表示,管理10万卡的集群与管理万卡集群有本质不同。要部署10万卡这么大规模的集群,光是在物理层面就要占据大概10万平方米的空间,相当于14个标准足球场的面积。在能耗方面,这些服务器一天就要消耗大约300万千瓦时的电力,相当于北京市东城区一天的居民用电量。

这种对于空间和能源的巨大需求,远远超过了传统机房部署方式所能承载的范畴,这意味着科技巨头不得不考虑跨地域的机房部署,这带来了网络层面的巨大挑战。

同时,巨额的建设、运营成本是一大难题。沈抖告诉记者,建一个万卡集群,单是GPU的采购成本就高达几十亿。

“十万卡集群”要来了,科技巨头竞逐AI算力极限

此前Anthropic首席执行官也表示,当前AI模型训练成本是10亿美元,未来三年,这个数字可能会上升到100亿美元甚至1000亿美元。

随着集群规模的扩大,如何 利用每一块GPU的算力成为关键挑战。一位业内人士告诉记者,万卡集群已经面临卡间和节点间的互联网络、软件和硬件的适配调优等问题,而十万卡集群则需要更精细化的设计和优化,构建超高精度和高可靠性的网络,包括引入新型芯片设计、超节点技术、跨节点互联网络技术等。

“你本身的集群调度效率怎么样?调度效率有时候会被大家忽略掉,超大规模的集群不是你的卡每时每刻都在用。大模型大规模的参数,在超大规模集群里面怎么样做模型的拆分,才能真正让算力有效发挥出来,这是 关键的。”有AI芯片从业者这样表示。

还有一大挑战就是稳定性问题。在如此大规模的集群上,运维的复杂性急剧增加。硬件不可避免地会出故障,而规模越大,出故障的概率就越高。业界常常拿Meta训练Llama模型举例,该模型用的是1.6万卡算力集群,大概每隔两三个小时整个训练任务就要因此重新开始,回到上一个Checkpoint(检查点)。“如果推演到10万卡,意味着每30分钟训练就要中断一次,有效训练时长占比会 低。”沈抖告诉记者。

他称,在这些故障中,绝大多数是由GPU引起的。其实GPU是一种很敏感的硬件,连中午天气温度的波动,都会影响到GPU的故障率。

“这些挑战迫使我们重新思考如何构建、管理和维护这样庞大而复杂的GPU集群,屏蔽硬件层的复杂性,为大模型落地的全流程提供一个简单、好用的算力 ,让用户能够更容易地管理GPU算力、低成本地用好算力。”沈抖告诉记者。

返回列表
上一篇:
下一篇: