新聞中心

        EEPW首頁 > 智能計算 > 業界動態 > 微軟自曝花數億美元為OpenAI組裝超算開發ChatGPT 使用數萬個英偉達芯片

        微軟自曝花數億美元為OpenAI組裝超算開發ChatGPT 使用數萬個英偉達芯片

        作者: 時間:2023-03-14 來源:網易科技 收藏

        3月14日消息,美國當地時間周一,發文透露其斥資數億美元幫助組裝了一臺AI超級計算機,以幫助開發爆火的聊天機器人ChatGPT。這臺超算使用了數萬個圖形A100,這使得能夠訓練越來越強大的AI模型。

        本文引用地址:http://www.104case.com/article/202303/444354.htm

        試圖訓練越來越大的AI模型,這些模型正在吸收更多的數據,學習越來越多的參數,這些參數是AI系統通過訓練和再培訓找出的變量。這意味著,OpenAI需要很長時間才能獲得強大的云計算服務支持。

        為應對這一挑戰,當于2019年向OpenAI投資10億美元時,該公司同意為這家AI研究初創公司組裝一臺巨大的尖端超級計算機。但問題在于,沒有任何OpenAI所需的東西,也不完全確定其能否能在不破壞Azure云服務的情況下構建如此龐大的設備。

        為此,微軟不得不想方設法將的數萬個A100圖形連接起來,并改變服務器在機架上的放置方式以防止斷電。A100圖形是培訓AI模型的主力。微軟負責云計算和AI業務的執行副總裁斯科特·格思里(Scott Guthrie)沒有透露該項目的具體成本,但其暗示可能達數億美元。

        微軟Azure AI基礎設施總經理尼迪·卡佩爾(Nidhi Cappell)說:“我們構建了一個系統構架,它可以在非常大的范圍內運行且十分可靠,這是ChatGPT成功的重要原因。這只是我們從中得出的一個模式,還會有許許多多其他的模型。”

        基于這項技術,OpenAI發布了爆火的聊天機器人ChatGPT。在去年11月上線后幾天,它就吸引了100多萬用戶,現在正被納入其他公司的商業模式。隨著企業和消費者對ChatGPT等生成式(AIGC)工具的興趣越來越大,微軟、亞馬遜和谷歌等云服務提供商將面臨更大的壓力,以確保他們的數據中心能夠提供所需的巨大算力。

        與此同時,微軟現在也開始使用它為OpenAI構建的基礎設施來訓練和運行自己的大型AI模型,包括上個月推出的新必應搜索聊天機器人。該公司還向其他客戶銷售該系統。這家軟件巨頭已經在研發下一代AI超級計算機,這是微軟與OpenAI擴大合作的一部分,微軟在交易中增加了100億美元投資。

        格思里在接受采訪時說:“我們并沒有為OpenAI定制任何東西,盡管其最初是定制的,但我們總是以一種泛化的方式構建它,這樣任何想要訓練大型語言模型的人都可以利用同樣的改進技術。這真的幫助我們在更廣泛的范圍內成為更好的AI智能云。”

        訓練規模龐大的AI模型需要在某個地方有大量相互連接的圖形處理單元,就像微軟組裝的AI超級計算機那樣。一旦模型投入使用,回答用戶查詢的所有問題(這個過程稱為推理)需要略有不同的設置。為此,微軟還部署了用于推理的圖形芯片,但這些處理器(成千上萬個)在地理上分散在該公司60多個數據中心里。微軟表示,現在該公司正在添加用于AI工作負載的最新圖形芯片H100以及最新版Infiniband網絡技術,以更快地共享數據。

        新的必應仍處于測試階段,微軟正在逐步從申請測試名單中增加更多用戶。格思里的團隊與大約20多名員工每天都要舉行會議,他將這些員工稱為“pit crew”,原指賽車中車隊后勤維護組的技師。這些人的工作是找出如何讓更多的計算能力快速上線,以及解決突然出現的問題。

        云服務依賴于數千個不同的部件,包括服務器、管道、建筑物的混凝土、不同的金屬和礦物,而任何一個組件的延遲或短缺,無論多么微小,都可能導致整個項目中斷。最近,“pit crew”團隊不得不幫助解決電纜托盤短缺的問題,這是一種籃狀的裝置,用來固定從機器上順下來的電纜。因此,他們設計了一種新的電纜橋架。格思里說,他們還致力于研究如何在世界各地的現有數據中心壓榨盡可能多的服務器,這樣他們就不必等待新的建筑竣工。

        當OpenAI或微軟開始訓練大型AI模型時,這項工作需要一次完成。工作被分配給所有的GPU,在某些時候,這些GPU需要相互交流來分享他們所做的工作。對于AI超級計算機,微軟必須確保處理所有芯片之間通信的網絡設備能夠處理這種負載,并且它必須開發出最大限度地利用GPU和網絡設備的軟件。該公司現在已經開發出一種軟件,可以用來訓練數十萬億個參數的AI模型。

        因為所有機器都是同時啟動的,微軟不得不考慮安放它們的位置,以及電源該應該放在哪里。否則,數據中心最終可能會斷電。Azure全球基礎設施總監阿利斯泰爾·斯皮爾斯(Alistair Speirs)說,微軟還必須確保能夠冷卻所有這些機器和芯片,該公司在較涼爽的氣候中使用蒸發;冷卻方式、在較冷的氣候中使用室外空氣,在炎熱的氣候中使用高科技沼澤冷卻器。

        格思里說,微軟將繼續致力于定制服務器和芯片設計,以及優化供應鏈的方法,以盡可能地提高速度、提高效率和節省成本。他說:“現在令世界驚嘆的AI模型是基于我們幾年前開始建造的超級計算機構建的,而新模型將使用我們現在正在訓練的新超級計算機。這臺計算機要大得多,可以實現更復雜的技術。”

        微軟已經在努力使Azure的AI功能更加強大,推出了新的虛擬機,使用英偉達的H100和A100 Tensor Core GPU,以及Quantum-2 InfiniBand網絡。微軟表示,這將允許OpenAI和其他依賴Azure的公司訓練更大、更復雜的AI模型。

        微軟Azure AI企業副總裁埃里克·博伊德(Eric Boyd)在一份聲明中說:“我們發現,我們需要構建專門的集群,專注于支持大量的培訓工作,而OpenAI就是早期的證據之一。我們正與他們密切合作,了解他們在建立訓練環境時需要的關鍵條件,以及他們需要的其他東西。”



        評論


        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 彭泽县| 定南县| 玛纳斯县| 宝坻区| 垣曲县| 安岳县| 藁城市| 崇左市| 南华县| 阿坝| 凌源市| 中牟县| 江达县| 湟中县| 重庆市| 曲水县| 阳西县| 三门峡市| 长寿区| 含山县| 乌鲁木齐县| 宜兴市| 遵化市| 封开县| 手机| 云阳县| 榆树市| 蓝山县| 阿尔山市| 凤翔县| 莱芜市| 马龙县| 鞍山市| 老河口市| 辉县市| 岑巩县| 昌吉市| 紫云| 霸州市| 梨树县| 泰顺县|