IBM 宣布開發(fā)出一種新的光學(xué)技術(shù),能夠以光速訓(xùn)練 AI 模型,同時(shí)大幅節(jié)省能源。該公司表示,通過(guò)將這項(xiàng)突破應(yīng)用于數(shù)據(jù)中心,訓(xùn)練一個(gè) AI 模型所節(jié)省的能源相當(dāng)于 5000 個(gè)美國(guó)家庭一年的能源消耗。
該公司解釋說(shuō),雖然數(shù)據(jù)中心通過(guò)光纖電纜與外部世界連接,但內(nèi)部仍然使用銅線。這些銅線連接著 GPU 加速器,而 GPU 加速器在等待來(lái)自其他設(shè)備的數(shù)據(jù)時(shí)會(huì)有大量時(shí)間處于空閑狀態(tài),同時(shí)消耗能量并推高成本。
IBM 高級(jí)副總裁兼研究總監(jiān) Dario Gil 稱:“隨著生成式 AI 對(duì)更多能源和處理能力的需求,數(shù)據(jù)中心必須進(jìn)化,而共封裝光學(xué)技術(shù)(CPO)可以使這些數(shù)據(jù)中心面向未來(lái)。通過(guò)這一突破,未來(lái)的芯片將像光纖電纜進(jìn)出數(shù)據(jù)中心傳輸數(shù)據(jù)一樣進(jìn)行通信,從而開啟一個(gè)更快、更可持續(xù)的通信新時(shí)代,能夠處理未來(lái)的 AI 工作負(fù)載。”
IBM 在一篇技術(shù)論文中概述了其新的 CPO 原型。通過(guò)顯著增加數(shù)據(jù)中心的帶寬,可以最大限度地減少 GPU 的閑置時(shí)間,從而加速 AI 處理。IBM 稱,大型語(yǔ)言模型(LLM)的訓(xùn)練時(shí)間可以從三個(gè)月縮短到三周。同時(shí),更高的能源效率將降低能源消耗,并減少與訓(xùn)練 LLM 相關(guān)的成本。