高加索AV无码,99尹人网毛,韩日337p99,一级a片久久无,97色区综合,激情日韩在线一二三,日韩精品久久精品草比,婷婷久久91,亚洲天堂艹比

訂閱
糾錯(cuò)
加入自媒體

AI超節(jié)點(diǎn)時(shí)代的交換機(jī)革命

圖片

AI大模型參數(shù)規(guī)模持續(xù)增長(zhǎng),單卡算力與顯存的物理上限,正倒逼AI訓(xùn)練集群規(guī)模持續(xù)擴(kuò)容。在這場(chǎng)AI算力軍備競(jìng)賽中,網(wǎng)絡(luò)性能早已成為決定集群算力釋放效率的關(guān)鍵。對(duì)于超大參數(shù)規(guī)模的AI模型而言,更高的網(wǎng)絡(luò)帶寬,能夠直接大幅壓縮模型訓(xùn)練的完成周期。

01

AI算力釋放的技術(shù)底座:RDMA

要突破AI集群的網(wǎng)絡(luò)性能瓶頸,RDMA技術(shù)已成為行業(yè)公認(rèn)的解決方案,而這一切的起點(diǎn),源于GPU通用計(jì)算時(shí)代的通信瓶頸破局。

GPU Direct RDMA是2009年由Nvidia和Mellanox共同研發(fā)的軟硬件協(xié)同創(chuàng)新技術(shù)。當(dāng)時(shí)GPU已經(jīng)從圖形渲染轉(zhuǎn)向通用計(jì)算(GPGPU),成為HPC的核心加速器。GPU計(jì)算能力雖然在持續(xù)提升,但因?yàn)榧褐胁煌?jié)點(diǎn)之間的GPU間傳輸數(shù)據(jù),仍需要CPU負(fù)責(zé),通信存在瓶頸,所以GPU的計(jì)算能力的優(yōu)勢(shì)受其拖累不能完全發(fā)揮,從而導(dǎo)致集群整體效率不高。NVIDIA當(dāng)時(shí)清晰地認(rèn)識(shí)到必須解決這個(gè)問題,所以開始與合作伙伴Mellanox一起探索GPU與網(wǎng)卡的直接通信的解決方案GPU Direct over InfiniBand。后續(xù)該技術(shù)方案逐漸成熟,并于2012年隨Kepler架構(gòu)GPU和CUDA 5.0一起發(fā)布,并被正式命名為GPU Direct RDMA。

在此之前,傳統(tǒng)數(shù)據(jù)中心的數(shù)據(jù)傳輸,始終受困于TCP/IP架構(gòu)的原生缺陷。在傳統(tǒng)傳輸方案中,內(nèi)存數(shù)據(jù)訪問與網(wǎng)絡(luò)數(shù)據(jù)傳輸分屬兩套語(yǔ)義集合,數(shù)據(jù)傳輸?shù)暮诵墓ぷ鞲叨纫蕾嘋PU:應(yīng)用程序先申請(qǐng)資源、通知Socket,再由內(nèi)核態(tài)驅(qū)動(dòng)程序完成TCP/IP報(bào)文封裝,最終通過NIC網(wǎng)絡(luò)接口發(fā)送至對(duì)端。數(shù)據(jù)在發(fā)送節(jié)點(diǎn)需要依次經(jīng)過Application Buffer、Socket Buffer、Transport Protocol buffer的多次拷貝,到達(dá)接收節(jié)點(diǎn)后,還要經(jīng)過同等次數(shù)的反向內(nèi)存拷貝,完成解封裝后才能寫入系統(tǒng)物理內(nèi)存。

這種傳統(tǒng)傳輸方式,帶來了三個(gè)問題:一是多次內(nèi)存拷貝導(dǎo)致傳輸時(shí)延居高不下;二是TCP/IP協(xié)議棧的報(bào)文封裝全靠驅(qū)動(dòng)軟件完成,CPU負(fù)載極高,其性能直接成為傳輸帶寬、時(shí)延等性能的瓶頸;三是應(yīng)用程序在用戶態(tài)與內(nèi)核態(tài)之間的頻繁切換,進(jìn)一步放大了數(shù)據(jù)傳輸?shù)臅r(shí)延與抖動(dòng),嚴(yán)重制約網(wǎng)絡(luò)傳輸性能。

RDMA(Remote Direct Memory Access,遠(yuǎn)程直接內(nèi)存訪問)技術(shù),正是為破解上述痛點(diǎn)應(yīng)運(yùn)而生。它通過主機(jī)卸載與內(nèi)核旁路技術(shù),讓兩個(gè)應(yīng)用程序能夠在網(wǎng)絡(luò)上實(shí)現(xiàn)可靠的直接內(nèi)存到內(nèi)存數(shù)據(jù)通信:應(yīng)用程序發(fā)起數(shù)據(jù)傳輸后,由RNIC硬件直接訪問內(nèi)存并將數(shù)據(jù)發(fā)送至網(wǎng)絡(luò)接口,接收節(jié)點(diǎn)的NIC則可將數(shù)據(jù)直接寫入應(yīng)用程序內(nèi)存,全程無(wú)需CPU與內(nèi)核的深度介入。

憑借這些特性,RDMA已成為高性能計(jì)算、大數(shù)據(jù)存儲(chǔ)、機(jī)器學(xué)習(xí)等對(duì)低延遲、高帶寬、低CPU占用有嚴(yán)苛要求的領(lǐng)域,核心的互聯(lián)技術(shù)之一。而RDMA技術(shù)協(xié)議的標(biāo)準(zhǔn)化,也為不同廠商設(shè)備的互聯(lián)互通提供了統(tǒng)一規(guī)范,推動(dòng)技術(shù)從概念走向規(guī)模化商用。目前,RDMA主流實(shí)現(xiàn)方案分為三類:InfiniBand協(xié)議、iWARP協(xié)議,以及RoCE協(xié)議(含RoCE v1與RoCE v2兩個(gè)版本)。

隨著AI模型參數(shù)從數(shù)十億級(jí)躍升至數(shù)萬(wàn)億級(jí),單GPU內(nèi)存容量持續(xù)擴(kuò)容的同時(shí),服務(wù)器間的數(shù)據(jù)傳輸效率,已成為決定系統(tǒng)擴(kuò)展能力、模型訓(xùn)練目標(biāo)能否實(shí)現(xiàn)的關(guān)鍵要素。RDMA技術(shù)的價(jià)值也愈發(fā)凸顯,能否高效訪問其他服務(wù)器的內(nèi)存與資源,直接決定了系統(tǒng)的可擴(kuò)展性,而直接訪問遠(yuǎn)端內(nèi)存的能力,能直接提升AI模型的整體訓(xùn)練性能。正是借助RDMA技術(shù),數(shù)據(jù)才能快速送抵GPU,最終有效縮短作業(yè)完成時(shí)間(Job Completion Time,簡(jiǎn)稱JCT)。

02

InfiniBand和以太網(wǎng)之爭(zhēng)

在AI智算網(wǎng)絡(luò)的發(fā)展歷程中,機(jī)柜間互聯(lián)最早采用成熟的以太網(wǎng)方案,而隨著低時(shí)延需求的升級(jí),InfiniBand憑借性能優(yōu)勢(shì)快速崛起。作為原生RDMA協(xié)議的代表,InfiniBand由NVIDIA子公司Mellanox主導(dǎo)推動(dòng),能提供低于2微秒的極低傳輸時(shí)延,同時(shí)實(shí)現(xiàn)零丟包,堪稱RDMA領(lǐng)域的性能領(lǐng)導(dǎo)者。

圖片

為了將InfiniBand的RDMA優(yōu)勢(shì)遷移至以太網(wǎng)生態(tài),RoCE協(xié)議應(yīng)運(yùn)而生。其中RoCE v1僅能在二層子網(wǎng)內(nèi)運(yùn)行,而RoCE v2通過IP/UDP封裝實(shí)現(xiàn)了跨子網(wǎng)路由,大幅提升了部署靈活性,盡管約5微秒的時(shí)延仍高于原生InfiniBand,卻讓以太網(wǎng)具備了支撐AI訓(xùn)練高帶寬、低延遲需求的能力。

為了撼動(dòng)InfiniBand在AI領(lǐng)域的主導(dǎo)地位,2025年6月,博通、微軟、谷歌等行業(yè)巨頭聯(lián)合推出UEC 1.0規(guī)范,旨在重構(gòu)以太網(wǎng)協(xié)議棧,使其性能逼近InfiniBand,標(biāo)志著以太網(wǎng)對(duì)InfiniBand發(fā)起了全面反擊。超以太網(wǎng)聯(lián)盟(Ultra Ethernet Consortium,UEC)明確,UEC 1.0規(guī)范能在包含網(wǎng)卡、交換機(jī)、光纖、電纜組成的全網(wǎng)絡(luò)堆棧層級(jí),提供高性能、可擴(kuò)展、可互操作的解決方案,從而實(shí)現(xiàn)多供應(yīng)商無(wú)縫集成,加速全生態(tài)創(chuàng)新。該規(guī)范不僅適配以太網(wǎng)與IP的現(xiàn)代RDMA能力,還支持?jǐn)?shù)百萬(wàn)級(jí)設(shè)備的端到端可擴(kuò)展性,同時(shí)徹底規(guī)避了供應(yīng)商鎖定的問題。

目前,阿里巴巴、百度、華為、騰訊等國(guó)內(nèi)科技企業(yè)均已加入U(xiǎn)EC聯(lián)盟,共同推進(jìn)標(biāo)準(zhǔn)落地。除了參與全球標(biāo)準(zhǔn)化建設(shè),國(guó)內(nèi)企業(yè)還在同步研發(fā)自主可控的橫向擴(kuò)展架構(gòu),均以低延遲、零丟包為核心目標(biāo),直接對(duì)標(biāo)InfiniBand的性能表現(xiàn)。

從產(chǎn)業(yè)落地的維度來看,兩條技術(shù)路線的優(yōu)劣勢(shì)十分清晰。RoCE v2方案依托以太網(wǎng)架構(gòu),不僅具備RDMA高帶寬、低時(shí)延的傳輸性能,還擁有極強(qiáng)的設(shè)備互聯(lián)兼容性與適配性,部署靈活且成本優(yōu)勢(shì)顯著。相比InfiniBand,基于以太網(wǎng)的RDMA方案,在低成本、高可擴(kuò)展性上擁有巨大優(yōu)勢(shì)。

網(wǎng)絡(luò)可用性直接決定GPU集群算力的穩(wěn)定性,而AI技術(shù)的爆發(fā),正推動(dòng)數(shù)據(jù)中心交換機(jī)向更高速率持續(xù)迭代。AI大模型參數(shù)量的指數(shù)級(jí)增長(zhǎng),帶來了算力需求的規(guī);嵘,但大集群并不等同于大算力。為了壓縮訓(xùn)練周期,大模型訓(xùn)練普遍采用分布式訓(xùn)練技術(shù),而RDMA正是繞過操作系統(tǒng)內(nèi)核、降低卡間通信時(shí)延的核心,目前主流落地的正是InfiniBand與RoCE v2兩大方案。其中InfiniBand方案時(shí)延更低,但成本偏高,且供應(yīng)鏈高度集中于英偉達(dá)。根據(jù)Dell‘Oro Group的預(yù)測(cè),到2027年,以太網(wǎng)在AI智算網(wǎng)絡(luò)的市場(chǎng)占比將正式超越InfiniBand。

03

超節(jié)點(diǎn)爆發(fā),高端交換機(jī)迎來黃金發(fā)展期

隨著 AI 大模型參數(shù)規(guī)模邁入萬(wàn)億量級(jí),算力需求已從單純 GPU 堆疊,轉(zhuǎn)向全維度系統(tǒng)架構(gòu)重構(gòu)。受單芯片物理功耗密度、互連帶寬及內(nèi)存容量瓶頸制約,算力增長(zhǎng)邊際效益持續(xù)遞減。當(dāng)前研究與工程實(shí)踐均表明,系統(tǒng)級(jí)協(xié)同架構(gòu)(如高帶寬域互聯(lián))是突破單芯片性能上限的主要技術(shù)路徑,其根本動(dòng)因在于單芯片物理極限已成為制約算力發(fā)展的核心瓶頸。

當(dāng)模型規(guī)模遠(yuǎn)超單芯片算力與顯存容量,傳統(tǒng)分布式訓(xùn)練面臨通信開銷激增、算力利用率大幅下滑等難題。在此背景下,依托高速無(wú)損互聯(lián)技術(shù),將數(shù)十乃至上百顆 GPU 芯片邏輯整合為統(tǒng)一計(jì)算單元,形成對(duì)外等效的 “超級(jí)計(jì)算機(jī)”,已成為全球主流 AI 基礎(chǔ)設(shè)施廠商與科研機(jī)構(gòu)公認(rèn)的下一代算力架構(gòu)突破方向。

AI 超節(jié)點(diǎn)的爆發(fā),為交換機(jī)市場(chǎng)打開全新增量空間。相較于傳統(tǒng)服務(wù)器,AI 服務(wù)器新增 GPU 模組,需通過專用網(wǎng)卡與服務(wù)器、交換機(jī)實(shí)現(xiàn)高效互聯(lián),完成節(jié)點(diǎn)間高速通信。這使得 AI 服務(wù)器組網(wǎng)在傳統(tǒng)架構(gòu)基礎(chǔ)上,新增后端網(wǎng)絡(luò)(Back End)層級(jí),單臺(tái)服務(wù)器網(wǎng)絡(luò)端口數(shù)量顯著提升,直接拉動(dòng)高速交換機(jī)、網(wǎng)卡、光模塊、光纖光纜等全產(chǎn)業(yè)鏈需求。

與此同時(shí),超節(jié)點(diǎn)規(guī);渴,加速網(wǎng)絡(luò)架構(gòu)橫向擴(kuò)展(Scale out)。萬(wàn)卡、十萬(wàn)卡乃至百萬(wàn)卡級(jí)別的超大集群組網(wǎng),催生海量高速交換機(jī)需求。隨著 AI 模型參數(shù)持續(xù)擴(kuò)容,集群規(guī)模從百卡、千卡級(jí)快速向萬(wàn)卡、十萬(wàn)卡級(jí)躍遷,推動(dòng)組網(wǎng)架構(gòu)從 2 層向 3 層、4 層持續(xù)演進(jìn),進(jìn)一步放大高速交換機(jī)市場(chǎng)缺口。

全球AI產(chǎn)業(yè)的高速發(fā)展,讓AI集群網(wǎng)絡(luò)對(duì)組網(wǎng)架構(gòu)、網(wǎng)絡(luò)帶寬、網(wǎng)絡(luò)時(shí)延提出了前所未有的嚴(yán)苛要求,也推動(dòng)以太網(wǎng)交換機(jī)這一核心通信設(shè)備,朝著高速率、多端口、白盒化、光交換機(jī)等方向持續(xù)迭代升級(jí)。而以太網(wǎng)本身深厚的產(chǎn)業(yè)根基與龐大的生態(tài)廠商陣容,也讓其在AI網(wǎng)絡(luò)中的市場(chǎng)占比擁有持續(xù)提升的空間。盡管目前InfiniBand憑借低延遲、擁塞控制、自適應(yīng)路由等機(jī)制,仍主導(dǎo)著AI后端網(wǎng)絡(luò)市場(chǎng),但隨著以太網(wǎng)部署方案的持續(xù)優(yōu)化,以及超以太網(wǎng)聯(lián)盟的生態(tài)加速完善,未來以太網(wǎng)方案的市場(chǎng)占比將持續(xù)攀升,直接帶動(dòng)以太網(wǎng)交換機(jī)的需求增長(zhǎng)。

04

全行業(yè)入局,國(guó)內(nèi)外廠商搶灘AI交換機(jī)賽道

AI交換機(jī)的巨大市場(chǎng)機(jī)遇,吸引了全球科技巨頭與國(guó)內(nèi)廠商的全面布局,從芯片到整機(jī)、從傳統(tǒng)設(shè)備商到互聯(lián)網(wǎng)企業(yè),一場(chǎng)圍繞AI交換機(jī)的技術(shù)與市場(chǎng)爭(zhēng)奪戰(zhàn)已然打響。

國(guó)際巨頭中,英偉達(dá)的布局最為激進(jìn)。其推出的Spectrum-x平臺(tái),是一套專為超大規(guī)模集群場(chǎng)景優(yōu)化的以太網(wǎng)方案,憑借這一產(chǎn)品,英偉達(dá)僅用不到三年時(shí)間,便在交換機(jī)這一傳統(tǒng)IT賽道實(shí)現(xiàn)了跨界突破。同時(shí),英偉達(dá)已將下一代Rubin AI平臺(tái)全面轉(zhuǎn)向CPO(共封裝光學(xué))架構(gòu),并宣布進(jìn)入量產(chǎn)階段,讓CPO從實(shí)驗(yàn)室概念,正式成為未來AI數(shù)據(jù)中心的“標(biāo)準(zhǔn)配置”。

博通也在去年推出了全球首款102.4 Tbps 交換機(jī)芯片 Tomahawk 6。該系列單芯片提供 102.4 Tbps 的交換容量,是目前市場(chǎng)上以太網(wǎng)交換機(jī)帶寬的兩倍。Tomahawk 6 專為下一代可擴(kuò)展和可擴(kuò)展 AI 網(wǎng)絡(luò)而設(shè)計(jì),通過支持 100G / 200G SerDes 和共封裝光學(xué)模塊(CPO),提供更高的靈活性。它提供業(yè)界最全面的 AI 路由功能和互連選項(xiàng),旨在滿足擁有超過一百萬(wàn)個(gè) XPUs 的 AI 集群的需求。

國(guó)內(nèi)傳統(tǒng)設(shè)備廠商也快速跟進(jìn),接連推出旗艦級(jí)產(chǎn)品。

華為于2025年發(fā)布了兩款旗艦產(chǎn)品:業(yè)界最高密的128×800GE 100T盒式以太交換機(jī)CloudEngine XH9330,憑借行業(yè)領(lǐng)先的高密端口設(shè)計(jì),突破了AI集群的規(guī)模上限;業(yè)界首款128×400GE 51.2T液冷盒式以太交換機(jī)CloudEngine XH9230,助力企業(yè)打造綠色節(jié)能、超大規(guī)模的全液冷算力集群。

紫光股份旗下新華三,于2024年率先發(fā)布1.6T智算交換機(jī)H3C S98258C-G,支持全光網(wǎng)絡(luò)3.0解決方案,單端口速率突破1.6T,整機(jī)交換容量達(dá)204.8T,可滿足3.2萬(wàn)臺(tái)AIGC節(jié)點(diǎn)的通信需求。該產(chǎn)品搭載自研智算引擎,時(shí)延可低至0.3微秒,通過了谷歌等國(guó)際客戶的驗(yàn)證,成為其OCS整機(jī)核心供應(yīng)商。此外,公司還推出了全球首款51.2T 800G CPO硅光數(shù)據(jù)中心交換機(jī),為1.6T產(chǎn)品的技術(shù)迭代奠定了基礎(chǔ)。

銳捷網(wǎng)絡(luò)完成了基于CPO技術(shù)的51.2T交換機(jī)商用互聯(lián)方案演示,該方案憑借超高集成度、顯著的能效提升與可維護(hù)性設(shè)計(jì),完美適配AI訓(xùn)練及超大規(guī)模計(jì)算集群的高速互聯(lián)需求,為未來800G和1.6T網(wǎng)絡(luò)升級(jí)提供了可行路徑。其51.2T CPO交換機(jī)采用博通Bailly 51.2Tbps CPO芯片,在4RU空間內(nèi)實(shí)現(xiàn)了128個(gè)400G FR4光交換端口,大幅提升了設(shè)備端口密度與帶寬容量,核心亮點(diǎn)在于通過光引擎與交換芯片的共封裝,大幅縮短電互聯(lián)路徑,降低信號(hào)衰減與傳輸功耗。

中興通訊推出了國(guó)產(chǎn)超高密度230.4T框式交換機(jī),以及全系列51.2T/12.8T盒式交換機(jī),性能處于行業(yè)領(lǐng)先水平,已在運(yùn)營(yíng)商、互聯(lián)網(wǎng)、金融等領(lǐng)域的百/千/萬(wàn)卡智算集群實(shí)現(xiàn)規(guī)模商用。

除了傳統(tǒng)交換機(jī)廠商,互聯(lián)網(wǎng)企業(yè)也紛紛下場(chǎng),開啟了自研交換機(jī)的進(jìn)程,成為賽道中不可忽視的重要力量。

騰訊早在2022年便啟動(dòng)了CPO交換機(jī)的研發(fā),同年推出并點(diǎn)亮業(yè)界首款25.6T CPO數(shù)據(jù)中心交換機(jī)——Gemini。該產(chǎn)品集成12.8T光引擎,提供16個(gè)800G光接口,剩余12.8T交換容量通過面板32個(gè)QSFP112可插拔接口提供。

字節(jié)跳動(dòng)在火山引擎正式上線102.4T自研交換機(jī),以此支撐新一代HPN 6.0架構(gòu),可滿足十萬(wàn)卡級(jí)GPU集群的高效互聯(lián)需求。該交換機(jī)實(shí)現(xiàn)全端口LPO支持,在4U空間內(nèi)部署了128個(gè)800G OSFP端口。

阿里巴巴在云棲大會(huì)展出了自研的102.4T國(guó)產(chǎn)交換機(jī),率先將3.2T NPO技術(shù)應(yīng)用于新一代國(guó)產(chǎn)四芯片交換機(jī)。該設(shè)備單機(jī)集成4顆25.6T國(guó)產(chǎn)交換芯片,總交換容量達(dá)102.4T,還可通過升級(jí)至4×102.4T芯片,平滑演進(jìn)至409.6T平臺(tái)。

相比線性驅(qū)動(dòng)可插拔光模塊(LPO),近封裝光學(xué)(NPO)能提供更高的帶寬密度,同時(shí)降低對(duì)主芯片SerDes性能的要求,更利于產(chǎn)業(yè)生態(tài)發(fā)展;而相比共封裝光學(xué)(CPO),NPO采用標(biāo)準(zhǔn)LGA連接器,保留了光模塊的開放解耦特性,避免了主芯片與光引擎的綁定,更易被終端用戶采納。

05

為什么互聯(lián)網(wǎng)企業(yè)要做交換機(jī)?

互聯(lián)網(wǎng)企業(yè)紛紛下場(chǎng)自研交換機(jī),并非偶然,而是技術(shù)趨勢(shì)與市場(chǎng)需求的共同驅(qū)動(dòng)。

技術(shù)層面,交換機(jī)白盒化的發(fā)展,為互聯(lián)網(wǎng)企業(yè)自研提供了基礎(chǔ)。白盒交換機(jī)實(shí)現(xiàn)了硬件與軟件的解耦,硬件由開放化組件構(gòu)成,軟件則可由用戶或第三方自由選擇、定制,具備高靈活性、高可擴(kuò)展性、低采購(gòu)與運(yùn)維成本的優(yōu)勢(shì),目前已在互聯(lián)網(wǎng)廠商與運(yùn)營(yíng)商網(wǎng)絡(luò)中廣泛應(yīng)用,產(chǎn)業(yè)生態(tài)日趨成熟。銳捷網(wǎng)絡(luò)作為白盒交換機(jī)領(lǐng)域的早期布局者,便與阿里、騰訊、字節(jié)跳動(dòng)等互聯(lián)網(wǎng)企業(yè)深度合作,通過JDM(聯(lián)合設(shè)計(jì)制造)模式參與下一代交換機(jī)研發(fā),2024年接連中標(biāo)多家頭部互聯(lián)網(wǎng)客戶的研發(fā)標(biāo),推動(dòng)白盒交換機(jī)在互聯(lián)網(wǎng)數(shù)據(jù)中心的規(guī)模化部署。而白盒交換機(jī)的軟硬件解耦特性,大幅降低了自研的技術(shù)門檻,也成為大型互聯(lián)網(wǎng)企業(yè)降低建網(wǎng)成本的關(guān)鍵。

市場(chǎng)層面,超大規(guī)模數(shù)據(jù)中心運(yùn)營(yíng)商面臨著與傳統(tǒng)企業(yè)完全不同的網(wǎng)絡(luò)需求:一方面,阿里、騰訊、字節(jié)等企業(yè)擁有數(shù)萬(wàn)甚至數(shù)十萬(wàn)級(jí)的服務(wù)器規(guī)模,對(duì)網(wǎng)絡(luò)的可擴(kuò)展性、可運(yùn)維性有極致要求;另一方面,AI訓(xùn)練集群尤其是萬(wàn)卡級(jí)GPU集群,對(duì)網(wǎng)絡(luò)的低延遲、高帶寬有著嚴(yán)苛的定制化需求。傳統(tǒng)交換機(jī)廠商提供的標(biāo)準(zhǔn)化產(chǎn)品,難以完全匹配這些個(gè)性化、極致化的業(yè)務(wù)需求,最終促使互聯(lián)網(wǎng)企業(yè)走向自研之路。

而自研交換機(jī)不僅能深度適配自身業(yè)務(wù)場(chǎng)景,實(shí)現(xiàn)網(wǎng)絡(luò)能力的定制化優(yōu)化,又能大幅降低集群建設(shè)的總體擁有成本(TCO),在AI算力軍備競(jìng)賽中,掌握網(wǎng)絡(luò)底層能力的主動(dòng)權(quán)。

       原文標(biāo)題 : AI超節(jié)點(diǎn)時(shí)代的交換機(jī)革命

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)

    南安市| 梨树县| 建平县| 荆门市| 信阳市| 原平市| 渭源县| 金门县| 思茅市| 教育| 庆元县| 鹤山市| 商南县| 印江| 新巴尔虎右旗| 松潘县| 剑川县| 湘阴县| 宁津县| 苍南县| 安徽省| 三江| 娱乐| 墨竹工卡县| 石阡县| 汝州市| 保亭| 高雄县| 宜州市| 绥中县| 清远市| 南召县| 互助| 漳浦县| 独山县| 建瓯市| 焦作市| 金沙县| 新源县| 三河市| 福州市|