2022-10-03 分類: 網(wǎng)站建設
在性能方面,人工智能(AI)應用快速擴張,要求IT云采用高性能GPU服務器。AI已在電信業(yè)網(wǎng)絡覆蓋優(yōu)化、批量投訴定界、異常檢測/診斷、業(yè)務識別、用戶定位等場景規(guī)?;瘧谩I應用需求的大量出現(xiàn),要求數(shù)據(jù)中心部署的服務器具有更好的計算效能、吞吐能力和延遲性能,以傳統(tǒng)通用x86服務器為核心的計算平臺顯得力不從心,GPU服務器因此登上運營商IT建設的歷史舞臺。

在效率成本方面,IT云部署通用服務器存在弊端,催生定制化整機柜服務器應用需求。在IT云建設過程中,由于業(yè)務需求增長快速,IT云資源池擴容壓力較大,云資源池中的服務器數(shù)量快速遞增,上線效率亟需提高。同時,傳統(tǒng)通用服務器部署模式周期長、部署密度低的劣勢,給數(shù)據(jù)中心空間、電力、建設成本和高效維護管理都帶來了較大的挑戰(zhàn)。整機柜服務器成為IT云建設的另一可選方案。
在節(jié)能方面,AI等高密度應用場景的快速發(fā)展,驅動液冷服務器成為熱點。隨著AI高密度業(yè)務應用的發(fā)展,未來數(shù)據(jù)中心服務器功率將從3kW~5kW向20kW甚至100kW以上規(guī)模發(fā)展,傳統(tǒng)的風冷式服務器制冷系統(tǒng)解決方案已經(jīng)無法滿足制冷需求,液冷服務器成為AI應用場景下的有效解決方案。
GPU服務器技術發(fā)展態(tài)勢及在電信業(yè)的應用
GPU服務器技術發(fā)展態(tài)勢
GPU服務器是單指令、多數(shù)據(jù)處理架構,通過與CPU協(xié)同進行工作。從CPU和GPU之間的互聯(lián)架構進行劃分,GPU服務器又可分為基于傳統(tǒng)PCIe架構的GPU服務器和基于NVLink架構的GPU服務器兩類。GPU服務器具有通用性強、生態(tài)系統(tǒng)完善的顯著優(yōu)勢,因此牢牢占據(jù)了AI基礎架構市場的主導地位,國內外主流廠商均推出不同規(guī)格的GPU服務器。國外主流廠商有英偉達、英特爾、戴爾等,國內主流廠商包括華為、浪潮、新華三、聯(lián)想、曙光等。從GPU服務器性能來看,國內外廠商基本處在同一水準。
GPU服務器在運營商IT云建設中的應用
當前,電信業(yè)開始推動GPU服務器在IT云資源池中的應用,省公司現(xiàn)網(wǎng)中已經(jīng)部署了部分GPU服務器。同時,考慮到GPU成本較高,集團公司層面通過建設統(tǒng)一AI平臺,集中化部署一批GPU服務器,形成AI資源優(yōu)化配置。從技術選型來看,目前運營商IT云資源池采用英偉達、英特爾等廠商相關產(chǎn)品居多。
GPU服務器在IT云應用中取得了良好的效果。在現(xiàn)網(wǎng)部署的GPU服務器中,與訓練和推理相關的深度學習應用占主要部分,占比超過70%,支撐的業(yè)務包括網(wǎng)絡覆蓋智能優(yōu)化、用戶智能定位、智能營銷、智能稽核等,這些智能應用減少了人工投入成本,提升了工作效率。以智能稽核為例,以往無紙化業(yè)務單據(jù)的人工稽核平均耗時約48秒/單,而AI稽核平均耗時僅約5秒/單,稽核效率提升達 90%。同時,無紙化業(yè)務單據(jù)人工稽核成本約1.5元/單,采用GPU進行AI稽核成本約0.048元/單,稽核成本降低達96.8%。
整機柜服務器發(fā)展態(tài)勢及在電信業(yè)的應用
整機柜服務器技術發(fā)展態(tài)勢
整機柜服務器是按照模塊化設計思路打造的服務器解決方案,系統(tǒng)架構由機柜、網(wǎng)絡、供電、服務器節(jié)點、集中散熱、集中管理6個子系統(tǒng)組成,是對數(shù)據(jù)中心服務器設計技術的一次根本性變革。整機柜服務器將供電單元、散熱單元池化,通過節(jié)約空間來提高部署密度,其部署密度通常可以翻倍。集中供電和散熱的設計,使整機柜服務器僅需配置傳統(tǒng)機柜式服務器10%的電源數(shù)量就可滿足供電需要,電源效率可以提升10%以上,且單臺服務器的能耗可降低5%。
整機柜服務器在運營商IT云建設中的應用
國內運營商在IT云建設中已經(jīng)推進了整機柜服務器部署,經(jīng)過實際應用檢驗,在如下方面優(yōu)勢明顯。
一是工廠預制,交付工時大幅縮短。傳統(tǒng)服務器交付效率低,采用整機柜服務器將原來在數(shù)據(jù)中心現(xiàn)場進行的服務器拆包、上架、布線等工作轉移到工廠完成,部署的顆粒度從1臺上升到幾十臺,交付效率大大提升。以一次性交付1500臺服務器為例,交付工作量可減少170~210人天,按每天配10人計算,現(xiàn)場交付時間可節(jié)省約17~21天。
二是資源池化帶來部件數(shù)量降低,故障率大幅下降。整機柜服務器通過將供電、制冷等部件資源池化,大幅減少了部件數(shù)量,帶來故障率的大幅降低。圖1比較了32節(jié)點整機柜服務器與傳統(tǒng)1U、2U服務器機型各自的電源部件數(shù)量及在一年內的月度故障率情況。由于32節(jié)點整機柜服務器含10個電源部件,而32臺1U通用服務器的電源部件為64個,相較而言,整機柜電源部件數(shù)減少84.4%。由于電源部件數(shù)量的降低,32節(jié)點整機柜服務器相對于32臺1U通用服務器的月度故障率也大幅縮減。

圖1 整機柜服務器與傳統(tǒng)機型服務器月度故障率對比
三是運維效率提升60%以上。整機柜服務器在工廠預制機柜布線,網(wǎng)絡線纜在工廠經(jīng)過預處理,線纜長度精確匹配,理線簡潔,接線方式統(tǒng)一規(guī)范,配合運維標簽,在運維中可以更方便簡潔地對節(jié)點實施維護操作,有效降低運維誤操作,提升運維效率60%以上,并大幅減少發(fā)生故障后的故障恢復時間。
液冷服務器技術發(fā)展態(tài)勢及在電信業(yè)的應用
液冷服務器技術發(fā)展態(tài)勢
液冷服務器技術也稱為服務器芯片液體冷卻技術,采用特種或經(jīng)特殊處理的液體,直接或近距離間接換熱冷卻芯片或者IT整體設備,具體包括冷板式冷卻、浸沒式冷卻和噴淋式冷卻3種形態(tài)。液冷服務器可以針對CPU熱島精確定點冷卻,精確控制制冷分配,能真正將高密度部署帶到前所未有的更高層級(例如20kW~100kW高密度數(shù)據(jù)中心),是數(shù)據(jù)中心節(jié)能技術的發(fā)展方向之一,3種液冷技術對比如表1所示。
表1 3種液冷技術對比

液冷服務器在運營商IT建設中的應用
液冷服務器技術目前在我國仍處于應用初期,產(chǎn)業(yè)鏈尚不完備、設備采購成本偏高、采購渠道少、電子元器件的兼容性低、液冷服務器專用冷卻液成本高等問題是液冷服務器尚未大規(guī)模推廣的重要原因。從液冷服務器在運營商數(shù)據(jù)中心領域的具體應用案例來看,運營商在IT云資源池規(guī)劃和建設過程中,通常會對液冷服務器的發(fā)展現(xiàn)狀、技術成熟度等進行分析論證。
考慮到目前液冷服務器規(guī)?;瘧蒙刑幱谄鸩诫A段,需要3~5年的引入期,因此暫時未在IT云資源池建設中進行大規(guī)模落地部署,但在部分地區(qū)有小規(guī)模應用,如中國移動南方基地數(shù)據(jù)中心已經(jīng)開展液冷服務器試點應用,中國聯(lián)通研究院也在開展邊緣數(shù)據(jù)中心服務器噴淋式液冷系統(tǒng)的開發(fā)。未來,隨著IT云建設規(guī)模、建設密度的繼續(xù)攀升,以及液冷產(chǎn)業(yè)生態(tài)體系的逐步成熟,液冷服務器在IT云建設中將有更大的應用空間。
總體來看,運營商IT云資源池建設對服務器計算性能、延遲、吞吐、制冷、定制化、分布式部署等方面都提出了更高要求。未來,GPU服務器、定制化整機柜服務器、液冷服務器等新興服務器技術將快速迭代,為運營商數(shù)據(jù)中心服務器技術的發(fā)展和演進帶來新的思路和路徑。
分享文章:數(shù)據(jù)中心服務器技術發(fā)展趨勢與應用
地址分享:http://www.yijiale78.com/news29/200779.html
成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供python、網(wǎng)站設計公司、做網(wǎng)站、外貿建站、品牌網(wǎng)站制作、App開發(fā)
聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內容