• 正文
    • 微軟和OpenAI選擇同時使用英特爾和Arm架構CPU的原因是什么?
    • SK海力士和三星電子的HBM內存相比其他類型內存有哪些具體優(yōu)勢?
    • 微軟Azure Maia AI服務器加速芯片的技術細節(jié)和性能表現(xiàn)如何?
    • “Stargate”項目在AI基礎設施建設中如何平衡不同供應商芯片的兼容性和效率?
  • 相關推薦
申請入駐 產業(yè)圖譜

美國新任總統(tǒng)特朗普的“Stargate”(星際之門)是做啥的,用到哪些芯片呢

01/23 13:37
2170
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

新任總統(tǒng)特朗普宣布了一項名為“Stargate”(星際之門)的人工智能基礎設施投資計劃,初期投資1000億美元,未來四年增加至5000億美元。該項目由OpenAI、軟銀和甲骨文三家公司共同投資,將從得克薩斯州的一個數(shù)據(jù)中心開始。 ? ?“Stargate”借用電影的名字,也是給人科幻的技術憧憬。

特朗普對新技術和新產業(yè)很是有興趣,如何賺錢,如何做到領先,確實比一心搞權證的政客更“市儈”一些。

“Stargate”(星際之門)的人工智能基礎設施將使用多種芯片,包括以下幾類:

英偉達AI芯片:多個證據(jù)表明,英偉達的GPU(如A100和H100)將是“Stargate”超級計算機的重要組成部分。這些芯片在AI訓練和推理任務中具有顯著優(yōu)勢,是目前最常用的AI加速器之一

英特爾Arm架構CPU:為了滿足AI服務器的需求,“Stargate”計劃使用英特爾或Arm架構的CPU。

AMD芯片微軟和OpenAI正在探索使用非英偉達公司的芯片,例如AMD的處理器。此外,微軟還推出了自己的AI服務器加速芯片Azure Maia,以減少對第三方芯片的依賴

SK海力士三星電子的HBM內存:這些高性能內存芯片將用于支持“Stargate”超級計算機的運行。

其他定制AI芯片:微軟和OpenAI可能還會開發(fā)或采購其他定制AI芯片,以進一步優(yōu)化性能和效率。例如,微軟曾提到可能通過生產線來解決芯片供應問題。

“Stargate”項目將結合多種芯片技術,包括英偉達GPU、英特爾或Arm架構CPU、AMD處理器、SK海力士和三星電子的HBM內存以及其他定制AI芯片,以滿足其龐大的計算需求。

無法詳細回答“Stargate”項目中定制AI芯片的具體技術特點和性能優(yōu)勢。然而,可以從多個證據(jù)中提取一些相關信息:

大規(guī)模部署專用服務器芯片:Stargate項目計劃配備數(shù)百萬個專用服務器芯片,這些芯片將為OpenAI的人工智能運行提供支持。

高性能和高效率:這些AI專用芯片經(jīng)過精心設計和優(yōu)化,能夠提供極高的計算效率和能耗比。

先進的架構設計和散熱系統(tǒng):Stargate超級計算機將采用先進的架構設計和散熱系統(tǒng),以確保在高強度運行時保持穩(wěn)定性和可靠性。

垂直整合的優(yōu)勢:通過垂直整合AI價值鏈,公司可以優(yōu)化從硬件到應用的整個AI堆棧,確保所有組件無縫協(xié)作,從而實現(xiàn)更好的性能、更低的成本和更快的創(chuàng)新周期。

支持生成式AI:Stargate將為OpenAI開發(fā)實現(xiàn)AGI(通用人工智能)的大模型提供強大動力,特別是在處理視頻模型的預訓練和微調方面,需要更高的算力和處理難度。

微軟和OpenAI選擇同時使用英特爾和Arm架構CPU的原因是什么?

微軟和OpenAI選擇同時使用英特爾和Arm架構CPU的原因可以從以下幾個方面進行分析:

提升AI計算效率:微軟和OpenAI合作開發(fā)了Azure Maia 100 AI加速器和Azure Cobalt 100 CPU,旨在為AI應用提供更高效、低成本的計算能力。這些定制芯片的設計是為了更好地適配大型語言模型(LLM),滿足未來算力需求。

技術優(yōu)勢和合作:英特爾的18A工藝對Arm架構進行了優(yōu)化,這使得微軟能夠利用英特爾先進的封裝和測試能力,進一步推動Cobalt CPU的發(fā)展。此外,英特爾與微軟的合作不僅限于CPU,還包括其他硬件和軟件的協(xié)同工作,以提升整體AI服務的性能。

市場和技術趨勢:英偉達在AI芯片市場的主導地位促使微軟和OpenAI尋求其他解決方案,以減少對英偉達的依賴同時,蘋果、AMD等公司也在積極開發(fā)基于Arm架構的CPU,這進一步推動了微軟和OpenAI在這一領域的探索。

應對全球市場變化:隨著全球市場的變化,ODM廠商(原始設計制造商)越來越多地采用高通、英特爾等公司的設計方案。這種趨勢促使微軟和OpenAI在選擇CPU架構時更加靈活,以適應不同市場的需求。

SK海力士和三星電子的HBM內存相比其他類型內存有哪些具體優(yōu)勢?

根據(jù)提供的信息,無法回答問題。

微軟Azure Maia AI服務器加速芯片的技術細節(jié)和性能表現(xiàn)如何?

微軟Azure Maia AI服務器加速芯片的技術細節(jié)和性能表現(xiàn)如下:

技術細節(jié)

制造工藝:Maia 100 AI加速器采用臺積電的5納米工藝和COWOS-S制程技術。

封裝和容量:芯片尺寸為820平方毫米,集成了兩塊HBM2E芯片,提供每秒1.8TB的帶寬。

內存和緩存:配備64GB HBM2E內存和500MB的L1/L2緩存。

網(wǎng)絡帶寬:支持12x 400GbE網(wǎng)絡帶寬。

計算能力:包含16個集群,每個集群有四個圖塊,支持圖像解碼器和機密計算功能,數(shù)據(jù)類型廣泛,支持6位和9位計算,適用于多種AI任務。

異步編程模型:提供Maia SDK和異步編程模型,支持Triton或Maia API,簡化開發(fā)和調試過程。

性能表現(xiàn)

功耗:設計TDP為700W,但實際功耗為500W,實現(xiàn)了高性能與高效能管理。

數(shù)據(jù)處理能力:支持高達4800Gbps的全收集和散點半帶寬,以及1200Gbps的單端口帶寬。

應用領域:專為大規(guī)模AI工作負載設計,適用于Azure OpenAI服務等高級AI功能,能夠處理大型語言模型訓練和推理任務。

能效比:通過垂直集成優(yōu)化性能并降低成本,旨在提高Azure OpenAI服務等服務上的高級AI功能的性能和成本效率。

綜上所述,微軟Azure Maia AI服務器加速芯片在技術上采用了先進的5納米工藝和COWOS-S制程技術,具備強大的計算能力和高效的能效比。

“Stargate”項目在AI基礎設施建設中如何平衡不同供應商芯片的兼容性和效率?

根據(jù)提供的信息,無法直接回答“Stargate”項目在AI基礎設施建設中如何平衡不同供應商芯片的兼容性和效率的問題。然而,可以從我搜索到的資料中提取一些相關信息來間接回答這個問題。

芯片供應商的選擇:微軟和OpenAI計劃建設名為“Stargate”的超級人工智能計算機數(shù)據(jù)中心,初步投入規(guī)模為100億美元。芯片供應商可能包括英偉達、AMD等加速芯片供應商。這表明微軟和OpenAI在選擇芯片供應商時,可能會考慮多個供應商以確保多樣性和兼容性。

以太網(wǎng)電纜的使用:OpenAI傾向于使用以太網(wǎng)電纜而非Nvidia的InfiniBand電纜。這種選擇可能是為了減少對Nvidia GPU芯片的依賴,從而提高系統(tǒng)的兼容性和靈活性。以太網(wǎng)電纜的使用可以降低傳輸成本并增強協(xié)議兼容性。

功耗和散熱問題:隨著生成式AI的爆發(fā),NVIDIA GPU需求激增,微軟和OpenAI正在尋找性價比更高的選擇,以減少對Nvidia的依賴。這表明在平衡不同供應商芯片的兼容性和效率時,功耗和散熱問題也是重要的考慮因素。

能源替代方案:由于電力需求巨大,微軟和OpenAI正在考慮使用核能等替代能源來支持這一龐大的基礎設施。這不僅有助于降低能耗,還可以提高系統(tǒng)的整體效率。

硬件設計的創(chuàng)新:將更多GPU放入單個機架以提高效率和性能是一個挑戰(zhàn)。這需要創(chuàng)新的硬件設計和散熱解決方案,以確保不同供應商的芯片能夠在同一平臺上高效運行。

相關推薦

登錄即可解鎖
  • 海量技術文章
  • 設計資源下載
  • 產業(yè)鏈客戶資源
  • 寫文章/發(fā)需求
立即登錄