【導(dǎo)讀】如果企業(yè)擁有數(shù)據(jù)中心,需要關(guān)注的是人工智能(AI)技術(shù)可能很快就會部署到數(shù)據(jù)中心。無論AI系統(tǒng)是一個聊天機器人,還是橫跨多個系統(tǒng)的自動化流程,亦或是對大型數(shù)據(jù)集的有效分析,這項新技術(shù)都有望加速和改善許多企業(yè)的業(yè)務(wù)模式。然而,AI的概念也可能會令人產(chǎn)生困惑和誤解。是德科技的這篇文章旨在探討有關(guān)AI網(wǎng)絡(luò)如何工作以及該技術(shù)面臨的獨特挑戰(zhàn)等五個方面的基本問題。
如果企業(yè)擁有數(shù)據(jù)中心,需要關(guān)注的是人工智能(AI)技術(shù)可能很快就會部署到數(shù)據(jù)中心。無論AI系統(tǒng)是一個聊天機器人,還是橫跨多個系統(tǒng)的自動化流程,亦或是對大型數(shù)據(jù)集的有效分析,這項新技術(shù)都有望加速和改善許多企業(yè)的業(yè)務(wù)模式。然而,AI的概念也可能會令人產(chǎn)生困惑和誤解。是德科技的這篇文章旨在探討有關(guān)AI網(wǎng)絡(luò)如何工作以及該技術(shù)面臨的獨特挑戰(zhàn)等五個方面的基本問題。
GPU相當(dāng)于AI計算機的“大腦”
簡單來說,AI計算機的大腦就是圖形處理器(GPU)。過去,人們可能聽說過中央處理器(CPU)是計算機的大腦。GPU 的優(yōu)勢在于,它是一個擅長進行數(shù)學(xué)計算的 CPU。當(dāng)創(chuàng)建AI計算機或深度學(xué)習(xí)模型時,需要對其進行 “訓(xùn)練”,這就要求對可能包含數(shù)十億個參數(shù)的數(shù)學(xué)矩陣方程進行求解。進行此種數(shù)學(xué)運算的最快方法是讓多組 GPU 在相同的工作負載上運行,即便如此,訓(xùn)練AI模型也可能需要數(shù)周甚至數(shù)月的時間。AI模型創(chuàng)建后,會被遷移到前端計算機系統(tǒng),用戶可以向模型提問,這就是所謂的推理。
AI計算機集眾多GPU于一身
用于處理AI工作負載的最佳架構(gòu)是在一個機架中集成一組GPU, 并將其連接到機架頂部的交換機中。還可以有更多的 GPU 集成機架,按照網(wǎng)絡(luò)層次結(jié)構(gòu)連接所有 GPU。隨著所要解決的問題的復(fù)雜性增加,對 GPU 的需求也就越大,有些將要部署的解決方案可能會包含數(shù)千個 GPU 集群。這不難讓人聯(lián)想到數(shù)據(jù)中心里一排又一排密密麻麻的服務(wù)器機架,這種場景非常常見。
AI集群是一個小型網(wǎng)絡(luò)
在構(gòu)建AI集群時,有必要將更多GPU連接起來,這樣它們才能協(xié)同工作。而GPU之間的連接可以通過創(chuàng)建微型計算機網(wǎng)絡(luò)的方式來實現(xiàn),讓GPU與GPU之間能夠互相發(fā)送和接收數(shù)據(jù)。
圖1:AI集群
圖1展示了一個AI集群,其中最下方的圓圈代表了GPU在執(zhí)行任務(wù)時的工作流程。將許多GPU連接到了機架頂部(ToR)的交換機。ToR 交換機還連接到了上圖頂部的骨干網(wǎng)絡(luò)中使用的交換機,這張圖充分描繪了需要集成眾多GPU時所采用的清晰網(wǎng)絡(luò)層次結(jié)構(gòu)。
AI部署的瓶頸在于網(wǎng)絡(luò)
去年秋天,在OCP(開放計算項目)全球峰會上,與會者重點討論了新一代AI基礎(chǔ)設(shè)施。其中,來自邁威爾科技的Loi Nguyen充分闡述了由此出現(xiàn)的一個關(guān)鍵問題:網(wǎng)絡(luò)已經(jīng)成為新的瓶頸。
GPU在解決數(shù)學(xué)問題或者處理工作負載方面非常有效。這些系統(tǒng)完成任務(wù)的最快方法是讓所有 GPU并行計算、協(xié)同工作來處理相同的工作負載。要做到這一點,GPU需要獲取它們即將處理的信息,并且它們彼此之間可以互相進行通信。如果其中一個GPU沒有得到它所需的信息,或者需要更長的時間來輸出結(jié)果,那么所有其他GPU都必須等待,直到能夠一致協(xié)作來完成任務(wù)。
從技術(shù)角度來講,擁堵的網(wǎng)絡(luò)造成的數(shù)據(jù)包延遲或者數(shù)據(jù)包丟失可能會導(dǎo)致系統(tǒng)需要反復(fù)重新傳輸數(shù)據(jù)包,并顯著延長完成任務(wù)所需的時間。這意味著,可能會有價值數(shù)百萬或數(shù)千萬美元的 GPU閑置,從而影響最終的結(jié)果,當(dāng)然也可能會影響希望通過利用AI技術(shù)獲得商機的企業(yè)的上市時間。
測試是成功運行AI網(wǎng)絡(luò)的關(guān)鍵
為了高效運行AI集群,用戶需要確保GPU得到充分利用,這樣才能較早地完成學(xué)習(xí)模型的訓(xùn)練,并將其投入使用,實現(xiàn)投資回報最大化。這就需要對AI集群(圖2)的性能進行測試和基準(zhǔn)測試。然而,這并不是一件輕而易舉的事兒,因為GPU和網(wǎng)絡(luò)架構(gòu)之間有著千絲萬縷的聯(lián)系和諸多設(shè)置,它們需要在架構(gòu)上實現(xiàn)互補,以滿足處理工作負載的需要。
圖2:AI數(shù)據(jù)中心測試平臺及如何測試AI數(shù)據(jù)中心集群
這給AI網(wǎng)絡(luò)帶來了諸多挑戰(zhàn):
-考慮到成本、設(shè)備的可用性、熟練的網(wǎng)絡(luò) AI 工程師的時間、空間、功率和熱量等因素的限制,很難在實驗室中復(fù)刻完整的工作網(wǎng)絡(luò)。
-在工作系統(tǒng)上執(zhí)行測試會降低工作系統(tǒng)可用的處理能力。
-由于工作負載的類型以及數(shù)據(jù)集的規(guī)模大小和范圍可能大不相同,因此所要研究的問題也會難以重現(xiàn)。
-深入洞察GPU之間的集體通信也頗具挑戰(zhàn)性。
應(yīng)對上述挑戰(zhàn)的方法之一是,首先在實驗室環(huán)境中對所提出的設(shè)置的一個子集執(zhí)行測試,以便對JCT、整個AI集群所能達到的帶寬等關(guān)鍵參數(shù)進行基準(zhǔn)測試,同時將這些參數(shù)與Fabric容量利用率以及內(nèi)存緩沖區(qū)消耗情況進行比較。這種基準(zhǔn)測試有助于找到GPU/工作負載的分布與網(wǎng)絡(luò)設(shè)計/設(shè)置之間的平衡點。當(dāng)計算架構(gòu)和網(wǎng)絡(luò)工程師對結(jié)果比較滿意時,他們就能夠?qū)⑦@些設(shè)置應(yīng)用到執(zhí)行任務(wù)的工作系統(tǒng)中并且衡量新的結(jié)果是否理想。
小結(jié)
為了充分釋放AI的潛能,需要優(yōu)化AI網(wǎng)絡(luò)的設(shè)備和基礎(chǔ)架構(gòu)。企業(yè)的研究實驗室和學(xué)術(shù)機構(gòu)致力于對構(gòu)建和運行高效AI網(wǎng)絡(luò)所涉及的各個層面進行分析,以解決在大型網(wǎng)絡(luò)上執(zhí)行任務(wù)所面臨的挑戰(zhàn)。尤其是在當(dāng)前行業(yè)最佳實踐正不斷發(fā)生變化的情況下,形勢更是如此。只有采用這種可以反復(fù)驗證、高度協(xié)作的方法,業(yè)界才能實現(xiàn)可重復(fù)的測試,并靈活地嘗試各種“假設(shè) ”場景,這是優(yōu)化AI網(wǎng)絡(luò)的基礎(chǔ)。
關(guān)于是德科技
是德科技(NYSE:KEYS)啟迪并賦能創(chuàng)新者,助力他們將改變世界的技術(shù)帶入生活。作為一家標(biāo)準(zhǔn)普爾 500 指數(shù)公司,我們提供先進的設(shè)計、仿真和測試解決方案,旨在幫助工程師在整個產(chǎn)品生命周期中更快地完成開發(fā)和部署,同時控制好風(fēng)險。我們的客戶遍及全球通信、工業(yè)自動化、航空航天與國防、汽車、半導(dǎo)體和通用電子等市場。我們與客戶攜手,加速創(chuàng)新,創(chuàng)造一個安全互聯(lián)的世界。
作者:是德科技產(chǎn)品營銷經(jīng)理 Linas Dauksa
免責(zé)聲明:本文為轉(zhuǎn)載文章,轉(zhuǎn)載此文目的在于傳遞更多信息,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請聯(lián)系小編進行處理。
推薦閱讀:
AGIC通用人工智能展與IOTE物聯(lián)網(wǎng)展攜手圓滿落幕,物聯(lián)網(wǎng)科技盛宴精彩紛呈!
貿(mào)澤、Analog Devices和Samtec推出全新電子書 匯集各路專家關(guān)于信號完整性的真知灼見