
— 唯有AMD能全方位推動AI進程,整合領先業界的GPU、CPU、網路解決方案和開放式軟體,提供無與倫比的靈活性與卓越效能 —
— Meta、OpenAI、xAI、Oracle、微軟、Cohere、HUMAIN、Red Hat、Astera Labs及Marvell等合作夥伴分享如何與AMD合作推動AI解決方案 —
台北,,2025年6月13日 -- AMD(NASDAQ: AMD)在Advancing AI 2025中,發表全面的端對端整合式AI平台願景,並推出基於業界標準所建構的開放式、可擴展機架級AI基礎設施。
AMD攜手合作夥伴共同展示:
- 如何運用全新AMD Instinct™ MI350系列加速器,建構開放式AI產業體系
- AMD ROCm™產業體系的持續蓬勃發展
- AMD強大、創新且開放式機架級設計與藍圖,預計將至2027年後持續提供領先業界的機架級AI效能
AMD董事長暨執行長蘇姿丰博士表示,AMD正以劃時代的速度引領AI創新,此一進程顯著體現於我們所發布的AMD Instinct MI350系列加速器、新一代AMD “Helios”機架級解決方案所帶來的突破性進展,以及ROCm開放軟體堆疊日益壯大的發展動能。我們正邁入AI發展的下一階段,其核心驅動力來自於開放標準、共同創新,以及AMD在廣泛的硬體與軟體合作夥伴產業體系中持續擴展的領導地位,共同擘劃AI的未來願景。
AMD提供領先業界的解決方案以加速開放式AI產業體系發展
AMD宣布推出廣泛的硬體、軟體和解決方案產品陣容,以全面推動AI進程:
- AMD發表Instinct MI350系列GPU,為生成式AI和高效能運算樹立效能、效率和可擴展性的全新標竿。MI350系列包含Instinct MI350X和MI355X GPU及平台,相較於上一代產品,提供4倍的AI運算能力提升註1及35倍的推論能力躍進註2,助力各產業實現變革性AI解決方案。MI355X在性價比方面亦帶來顯著提升,相較於競爭對手解決方案,每美元可產生多達40%的Token註3。詳情請參閱AMD人工智慧事業群資深副總裁Vamsi Boppana的部落格文章。
- AMD展示端對端、開放標準的機架級AI基礎設施,搭載AMD Instinct MI350系列加速器、第5代AMD EPYC™處理器和AMD Pensando™ Pollara NIC,已部署於Oracle Cloud Infrastructure (OCI)等超大規模雲端供應商(hyperscaler)環境中,並預計於2025年下半年廣泛上市。
- AMD亦預覽了新一代AI機架“Helios”,將搭載新一代AMD Instinct MI400系列GPU、“Zen 6”架構的AMD EPYC “Venice” CPU和AMD Pensando “Vulcano” NIC。相較於上一代產品,AMD Instinct MI400系列GPU預計在混合專家模型上運行推理的效能將提升高達10倍註4。詳情請參閱此部落格文章。
- 最新版本的AMD開源AI軟體堆疊ROCm 7,旨在滿足生成式AI和高效能運算工作負載日益增長的需求,同時全面顯著提升開發人員體驗。ROCm 7具備更完善的業界標準框架支援、擴展的硬體相容性,以及全新的開發工具、驅動程式、API和函式庫,以加速AI開發和部署。詳情請參閱AMD AI軟體開發全球副總裁Anush Elangovan的部落格文章。
- Instinct MI350系列超越了AMD將AI訓練和高效能運算節點能源效率提升30倍的5年目標,最終實現了38倍的顯著提升註5。AMD更公布了2030年全新目標,以2024年為基準年,將機架級能源效率提升20倍註6,使目前需要超過275個機架的典型AI模型到2030年能在少於一個全面運用的機架中進行訓練,並減少95%的電力消耗註7。詳情請參閱AMD資深副總裁暨院士Sam Naffziger的部落格文章。
- AMD同步宣布AMD Developer Cloud將廣泛提供予全球開發人員和開源社群。此平台專為快速、高效能AI開發而設計,使用者將能存取功能齊全的雲端環境,具備所需工具和靈活性以啟動AI專案,並實現無限成長。透過ROCm 7和AMD Developer Cloud,AMD正持續擴大新一代運算的存取權限並使其更易於實現。與Hugging Face、OpenAI和Grok等領導者的策略合作,證明了共同開發開放式解決方案的強大力量。
廣泛的合作夥伴產業體系展示由AMD挹注動能的AI進展
全球前10大模型建構商與AI公司中,已有7家在其生產工作負載中採用AMD Instinct加速器。其中,Meta、OpenAI、微軟和xAI等攜手AMD及其他合作夥伴於Advancing AI大會中深入探討其如何與AMD合作推動AI解決方案訓練當今領先的AI模型、大規模推動推論以及加速AI探索與開發:
- Meta詳述如何廣泛部署Instinct MI300X於Llama 3和Llama 4推論。Meta對於MI350及其運算能力、每總體擁有成本(TCO)的效能表現,以及新一代記憶體感到非常振奮。Meta將持續與AMD密切合作,推動AI藍圖,其中包括Instinct MI400系列平台的相關計畫。
- OpenAI執行長Sam Altman闡述硬體、軟體與演算法全面最佳化的重要性,並強調OpenAI與AMD在AI基礎設施方面的緊密合作,包括採用MI300X開發Azure研究及GPT模型,以及在MI400系列平台上的深度設計合作。
- Oracle Cloud Infrastructure (OCI)是首批採用搭載AMD Instinct MI355X GPU之AMD開放式機架級AI基礎設施的業界領導者之一。OCI運用AMD CPU和GPU為AI叢集提供平衡、可擴展的效能,並宣布將推出由最新AMD Instinct處理器加速的Zettascale AI 叢集,搭載高達131,072個MI355X GPU,協助客戶實現大規模的AI建構、訓練和推論。
- HUMAIN分享其與AMD簽訂的里程碑式協議,旨在運用唯獨AMD才能提供的全方位運算平台,建構開放、可擴展、具彈性且具成本效益的AI基礎設施。
- 微軟宣布Instinct MI300X現已為在Azure上專屬和開源模型提供生產力。
- Cohere指出其高效能、可擴展的Command模型已部署在Instinct MI300X上,以高吞吐量、效率和資料隱私為企業級LLM推論提供動能。
- Red Hat描述其與AMD擴大的合作如何實現生產就緒的AI環境,透過Red Hat OpenShift AI上的AMD Instinct GPU,在混合雲環境中提供強大、高效率的AI處理。
- Astera Labs強調開放的UALink產業體系如何加速創新並為客戶帶來更大的價值,並分享了提供全面的UALink產品組合以支援新一代AI基礎設施的計畫。
- 作為UALink聯盟的成員,Marvell與AMD攜手合作共同開發開放的互連技術,為AI基礎設施帶來極致的靈活性。
相關資源
- 更多關於:AMD Advancing AI 2025
- 請參考:Advancing AI 2025媒體資料
- 更多關於:AMD AI解決方案
- LinkedIn:於AMD LinkedIn追蹤AMD新訊
- X:於@AMD及@AMD AI追蹤AMD新訊
關於AMD
超過55年來,AMD(NASDAQ:AMD)推動創新高效能運算、繪圖及視覺技術。全球數十億的消費者、世界500強企業以及尖端科學研究機構皆仰賴AMD的技術來改善生活、工作及娛樂。AMD員工致力於研發領先的高效能與自行調適產品,不斷突破技術的極限。欲瞭解AMD如何成就今天,啟發未來,請瀏覽AMD網站。
©2025年,AMD公司版權所有。AMD、AMD箭頭、EPYC、AMD CDNA、AMD Instinct、Pensando、ROCm、Ryzen及上述名稱的組合是AMD公司的商標。其他名稱僅為提供資訊的目的,也可能是各自所有者的商標。
免責聲明
本新聞稿包含有關Advanced Micro Devices, Inc(AMD)的前瞻性陳述,包括AMD產品與藍圖;AMD AI平台;以及AMD合作夥伴產業體系的特色、功能、效能、上市時間、時程以及預期收益,這些陳述皆基於1995年《私人證券訴訟改革法案》(U.S. Private Securities Litigation Reform Act)的「安全港」(Safe Harbor)條款制定。這些前瞻性聲明含有像「將會」、「可能」、「預期」、「相信」、「計劃」、「打算」、「估計」,或這些字詞和短語的其它類似詞彙。投資者應注意本資料中的前瞻性陳述僅根據本文公佈當時的見解、假設以及預期,僅反映本文發布時的情況,且涉及到許多風險與不確定因素,可能會導致實際結果與預期存在重大差異。這類陳述受到特定已知與未知風險與不確定因素所影響,其中許多因素難以預測且大多非AMD所能掌控,並可能響應實際結果與其他未來事件和文中陳述有所出入,或是和前瞻性陳述資訊與陳述的暗示或預期狀況有所不同。可能導致實際結果和當前預期有所出入的實質因素包括但不限於:包括Intel公司佔據微處理器市場及其進取的商業行為;Nvidia佔據GPU市場及其進取的商業行為;AMD產品銷售的競爭市場;半導體產業的周期性;AMD產品銷售行業的市場狀況;AMD能夠及時推出具有預期功能和效能水準的產品;失去重要客戶;經濟和市場的不確定性;季度和季節性銷售模式;AMD充分保護其技術或其他知識產權的能力;不利的貨幣匯率波動;第三方廠商能及時製造足夠數量AMD的產品、或使用競爭對手的技術;基本設備、材料、載板或製造過程的可用性;達到AMD產品預期製造良率的能力;AMD的半客製化SoC產品產生營收的能力;潛在的安全漏洞;潛在的安全事件,包括IT中斷、數據丟失、數據洩露和網路攻擊;有關AMD產品訂購和發貨的不確定性;AMD依賴第三方廠商知識產權來設計和推出新產品;AMD依賴第三方廠商來設計、製造和供應主機板、軟體、記憶體和其他電腦平台零組件;AMD依賴Microsoft和其他軟體供應商的支持來設計和開發可在AMD產品上運行的軟體;AMD依賴第三方分銷商和外接合作夥伴;修改或中斷AMD內部業務流程和資訊系統的影響;AMD產品與部分或全部行業標準軟體和硬體的兼容性;缺陷產品所產生的有關費用;AMD供應鏈的效率;AMD依靠第三方供應鏈物流功能的能力;AMD有效控制其產品在灰色市場上銷售的能力;氣候變遷對AMD業務的長期影響;政府行動和法規的影響,例如出口法規、關稅和貿易保護措施以及許可證要求;AMD實現遞延所得稅資產的能力;潛在的稅收負債;當前和將來的索賠和訴訟;環境法律,與衝突礦物有關的規定以及其他法律或法規的影響;政府、投資者、客戶和其他7位利害關係人對企業責任事務不斷變化的期望;與負責任地使用人工智慧相關的問題;管理AMD票據、賽靈思票據擔保、循環信貸協議和ZT Systems信貸協議的協議所施加的限制;收購、合資和/或策略性投資對AMD業務的影響以及AMD整合收購業務(包括ZT Systems)的能力;AMD出售ZT Systems製造業務的能力;合併後公司資產減損的影響;政治,法律,經濟風險和自然災害;技術許可購買的未來減損;AMD吸引和留住人才的能力;AMD的股價波動。呼籲投資者詳閱公司呈交美國證管會各項財報中提及的風險與不確定因素,其中包括但不限於AMD最近的Form 10-K和10-Q報告。
註1:根據AMD效能實驗室於2025年5月的測試結果,使用FP16、FP8、FP6和FP4資料類型搭配矩陣運算,以確定8個AMD Instinct™ MI355X和MI350X GPU(平台)以及8個AMD Instinct MI325X、MI300X、MI250X和MI100 GPU(平台)的峰值理論精度效能。伺服器製造商的配置可能有所不同,從而產生不同的結果。結果可能因使用最新的驅動程式和最佳化而異。MI350-004
註2:基於AMD於2025年6月9日的內部測試結果。使用8個GPU的AMD Instinct™ MI355X平台,測量線上生成的文字,以服務Llama 3.1-405B聊天模型(FP4)的推論吞吐量,並與8個GPU的AMD Instinct™ MI300X平台的效能(FP8)進行比較。測試使用32768個token的輸入長度和1024個token的輸出長度,並將並行性設定為每個平台上可用的最佳吞吐量,以在每個平台上達到60毫秒,MI300X平台為1(35.3毫秒),MI355X平台為64毫秒(50.6毫秒)。伺服器製造商的配置可能有所不同,從而產生不同的結果。效能可能因使用最新的驅動程式和最佳化而異。MI350-044
註3:基於AMD實驗室截至2025年6月6日的效能測試結果,使用FP4資料類型搭配各種輸入、輸出token長度組合,在AMD Instinct™ MI355X 8x GPU上測量LLaMA 3.1-405B模型生成的文字推論吞吐量,並與NVIDIA B200 HGX 8xGPU的已發佈結果進行比較。每美元效能的計算方式是根據Coreweave網站上NVIDIA B200的現行價格以及預期的基於Instinct MI355X的雲端執行個體價格。伺服器製造商的配置可能有所不同,從而產生不同的結果。效能可能因使用最新的驅動程式和最佳化而異。目前的客戶價格截至2025年6月10日,可能隨時變更。MI350-049
註4:截至2025年6月5日的效能預測,基於未來AMD Instinct MI400系列GPU的設計,使用工程估算值與Instinct MI355x進行比較,採用2K和16K預填充搭配TP8、EP8以及預測的推論效能,並使用以GEMM和Attention演算法評估Instinct MI400系列的GenAI訓練模型。產品上市後的實際結果可能有所不同。MI400-001
註5:此計算包含1) Koomey Analytics於2025年根據現有研究和數據進行的基準案例千瓦時使用量預測,其中包含特定區塊預計的2025年部署量和資料中心電源使用效率(PUE),包括GPU HPC和機器學習(ML)安裝量,以及2) AMD CPU和GPU節點功耗,其中納入特定區塊的使用率(活動與閒置)百分比,並乘以PUE以確定實際總能源使用量,用於計算每瓦效能。38倍是使用以下公式計算得出的:(2025年基準案例HPC節點千瓦時使用量預測 * AMD 2025 年使用DGEMM和TEC的每瓦效能改進 + 2025年基準案例ML節點千瓦時使用量預測 * AMD 2025年使用ML數學和TEC的每瓦效能改進) / (2025年基準案例預測的千瓦時使用量)。更多資訊請參閱https://www.amd.com/en/corporate/corporate-responsibility/data-center-sustainability.html。EPYC-030a
註6:基於AMD藍圖,推估每年(2024年至2030年)用於AI訓練/推論的AMD先進機架,同時檢視歷史趨勢,以提供機架設計選擇和技術改進的資訊,使預測目標與歷史趨勢一致。2024年的機架基於 MI300X節點,與Nvidia H100相當,並反映了2024/2025年期間AI部署的現行常見做法。2030年的機架基於該時間範圍內AMD系統和晶片設計的預期。在每種情況下,AMD都指定了GPU、CPU、DRAM、儲存裝置、散熱和通訊等元件,並追蹤元件和定義的機架特性,以了解功耗和效能。計算不包括用於機架外部冷卻空氣或供水的功耗,但包括機架內部風扇和泵的功耗。效能改進的估計值基於運算輸出(交付的持續FLOPS,而非峰值FLOPS)、記憶體(HBM)頻寬和網路(擴展)頻寬的進展,以指數表示,並由以下訓練和推論因素加權。
FLOPS HBM BW 向上擴展BW
訓練 70.0% 10.0% 20.0%
推論 45.0% 32.5% 22.5%
每個機架的效能和功耗共同暗示了訓練和推論隨時間推移的每瓦效能趨勢,然後以50:50的權重加權訓練和推論進展的指數,以得出AMD預計到2030年進展(20倍)的最終估計值。效能數據假設AI模型在利用低精度數學格式進行訓練和推論方面持續進步,這會導致有效FLOPS增加,以及每個FLOP所需的頻寬減少。
註7:AMD根據EPOCH AI數據(https://epoch.ai)估計訓練典型重要AI模型所需的機架數量。在此計算中,我們基於這些數據假設,一個典型模型需要10的25次方浮點運算來訓練(基於2025年數據的中位數),並且此訓練過程需要一個月時間。所需的FLOPs = 10^25 FLOPs / (秒/月) /模型FLOPs使用率(MFU)= 10^25 / (2.6298*10^6) / 0.6。機架數量=所需FLOPs / (2024年和2030年每個機架的FLOPS)。根據AMD藍圖的運算效能估計值,在2025年使用MI300X產品(假設每個機架22.656 PFLOPS,MFU為60%),大約需要276個機架才能在一個月內訓練一個典型模型,而在2030年使用基於AMD藍圖預測的機架配置,訓練相同模型則需要不到1個完全使用的機架。這些計算意味著在這6年期間,訓練相同模型所需的機架數量減少了276倍以上。使用MI300X系統以2024年的機架完全訓練一個已定義的2025年AI模型的用電量經計算約為7 GWh,而未來的2030年AMD系統可以使用約350 MWh訓練相同模型,減少了95%。然後,AMD應用了國際能源署2024年世界能源展望(https://www.iea.org/reports/world-energy-outlook-2024)中每千瓦時的碳強度。IEA提出的政策案例提供了2023年和2030年的碳強度。我們確定了從2023年到2030年強度的年平均變化,並將其應用於2023年的強度,以得出2024年的強度(434 CO2克/千瓦時)與2030年的強度(312 CO2克/千瓦時)。2024年基準情境的排放量為7 GWh x 434 CO2克/千瓦時,約等於3000公噸二氧化碳,而未來的2030年情境為350 MWh x 312 CO2克/千瓦時,約等於100公噸二氧化碳。
新聞聯絡人:
美商超微半導體
高惠如 Robyn Kao
Tel:2655-8885 EXT.23352
Email: Robyn.Kao@amd.com
世紀奧美公關
黎淑玲 Jannie Lai
Tel:7743-9139
Email: JannieSL.Lai@eraogilvy.com
媒體庫
搜尋並下載最新的 AMD 公司和產品標誌、影像和幕後花絮