H800國內首發 騰訊云發布最新高性能計算集群
4月14日,騰訊云正式發布新一代HCC(High-Performance Computing Cluster)高性能計算集群。該集群采用騰訊云星星海自研服務器,搭載英偉達最新代次H800 GPU,服務器之間采用業界最高的3.2T超高互聯帶寬,為大模型訓練、自動駕駛、科學計算等提供高性能、高帶寬和低延遲的集群算力。
實測顯示,騰訊云新一代集群的算力性能較前代提升高達3倍,是國內性能最強的大模型計算集群。
2022年10月,騰訊完成首個萬億參數的AI大模型——混元NLP大模型訓練。在同等數據集下,將訓練時間由50天縮短到11天。如果基于新一代集群,訓練時間將進一步縮短至4天。
(資料圖片)
大模型進入萬億參數時代,單體服務器算力有限,需要將大量服務器通過高性能網絡相連,打造大規模算力集群。通過對處理器、網絡架構和存儲性能的全面優化,騰訊云攻克了大集群場景下的算力損耗問題,能為大模型訓練提供高性能、高帶寬、低延遲的智算能力支撐。
網絡層面,計算節點間存在海量的數據交互需求,隨著集群規模擴大,通信性能會直接影響訓練效率。騰訊自研的星脈網絡,為新一代集群帶來了業界最高的3.2T的超高通信帶寬。實測結果顯示,搭載同樣的GPU卡,3.2T星脈網絡相較前代網絡,能讓集群整體算力提升20%,使得超大算力集群仍然能保持優秀的通信開銷比和吞吐性能。并提供單集群高達十萬卡級別的組網規模,支持更大規模的大模型訓練及推理。?
存儲層面,幾千臺計算節點同時讀取一批數據集,需要盡可能縮短加載時長。騰訊云自研的文件存儲、對象存儲架構,具備TB級吞吐能力和千萬級IOPS,充分滿足大模型訓練的大數據量存儲要求。
底層架構之上,針對大模型訓練場景,新一代集群集成了騰訊云自研的TACO Train訓練加速引擎,對網絡協議、通信策略、AI框架、模型編譯進行大量系統級優化,大幅節約訓練調優和算力成本。
騰訊混元大模型背后的訓練框架AngelPTM,也已通過騰訊云對外提供服務,幫助企業加速大模型落地。?
目前,騰訊混元AI大模型,已經覆蓋了自然語言處理、計算機視覺、多模態等基礎模型和眾多行業、領域模型。?
在騰訊云上,企業基于TI平臺的大模型能力和工具箱,可結合產業場景數據進行精調訓練,提升生產效率,快速創建和部署AI 應用。?
此前,騰訊多款自研芯片已經量產。其中,用于AI推理的紫霄芯片、用于視頻轉碼的滄海芯片已在騰訊內部交付使用,性能指標和綜合性價比顯著優于業界。其中,紫霄采用自研存算架構,增加片上內存容量并使用更先進的內存技術,消除訪存能力不足制約芯片性能的問題,同時內置集成騰訊自研加速模塊,減少與CPU握手等待時間。目前,紫霄已經在騰訊頭部業務規模部署,提供高達3倍的計算加速性能,和超過45%的整體成本節省。?
目前,騰訊云的分布式云原生調度總規模超過1.5億核,并提供16 EFLOPS(每秒1600億億次浮點運算)的智算算力。未來,新一代集群不僅能服務于大模型訓練,還將在自動駕駛、科學計算、自然語言處理等場景中充分應用。?
以新一代集群為標志,基于自研芯片、星星海自研服務器和分布式云操作系統遨馳,騰訊云正通過軟硬一體的方式,打造面向AIGC的高性能智算網絡,持續加速全社會云上創新。
關鍵詞:
2023-04-14 13:54:50
2023-04-14 13:47:33
2023-04-14 13:46:48
2023-04-14 13:39:23
2023-04-14 12:56:22
2023-04-14 12:51:48
2023-04-14 12:44:52
2023-04-14 12:44:51
2023-04-14 12:40:14
2023-04-14 12:14:39
2023-04-14 11:58:04
2023-04-14 11:50:58
2023-04-14 11:46:16
2023-04-14 11:41:12
2023-04-14 11:40:16
2023-04-14 11:32:33
2023-04-14 10:57:48
2023-04-14 10:13:49
2023-04-14 09:59:54
2023-04-14 09:59:39
2023-04-14 09:59:04
2023-04-14 09:59:02
2023-04-14 09:57:55
2023-04-14 09:57:22
2023-04-14 09:57:20
2023-04-14 09:56:20
2023-04-14 09:55:33
2023-04-14 09:53:13
2023-04-14 09:52:28
2023-04-14 09:50:39
2023-04-14 09:50:09
2023-04-14 09:48:32
2023-04-14 09:48:19
2023-04-14 09:48:17
2023-04-14 09:48:09
2023-04-14 09:45:57
2023-04-14 09:44:53
2023-04-14 09:43:22
2023-04-14 09:43:03
2023-04-14 09:41:58
2023-04-14 09:41:38
2023-04-14 09:41:28
2023-04-14 09:41:26
2023-04-14 09:39:19
2023-04-14 09:36:51
2023-04-14 09:36:17
2023-04-14 09:32:49
2023-04-14 09:29:22
2023-04-14 09:29:13
2023-04-14 09:28:38
2023-04-14 09:28:28
2023-04-14 09:28:08
2023-04-14 09:25:01
2023-04-14 09:24:39
2023-04-14 09:24:15
2023-04-14 09:22:36
2023-04-14 08:54:40
2023-04-14 08:48:32
2023-04-14 08:48:31
2023-04-14 08:37:20
2023-04-14 08:35:33
2023-04-14 08:26:14
2023-04-14 06:54:53
2023-04-14 06:53:52
2023-04-14 06:50:58
2023-04-14 06:48:21
2023-04-14 06:46:31
2023-04-14 06:37:07
2023-04-14 05:50:14
2023-04-14 05:42:45
2023-04-14 05:39:55
2023-04-14 05:37:45
2023-04-14 05:37:13
2023-04-14 05:01:13
2023-04-14 01:16:33
2023-04-13 22:13:43
2023-04-13 21:53:19
2023-04-13 21:38:44
2023-04-13 20:58:40
2023-04-13 20:57:43
2023-04-13 20:56:54
2023-04-13 20:46:38
2023-04-13 20:40:26
2023-04-13 20:40:14
2023-04-13 20:03:30
2023-04-13 19:56:22
2023-04-13 18:55:09
2023-04-13 18:52:28
2023-04-13 18:47:35
2023-04-13 18:42:03
2023-04-13 18:41:17
2023-04-13 18:35:56
2023-04-13 17:57:08
2023-04-13 17:51:00
2023-04-13 17:40:00
2023-04-13 17:39:12
2023-04-13 17:39:01
2023-04-13 17:37:45
2023-04-13 16:58:28
相關新聞