
─ 最新のアクセラレータは、業界トップクラスの HBM3E メモリ容量を備え、 Dell Technologies 、 HPE 、 Lenovo 、 Supermicro などのパートナーやお客様から幅広く支持 ─
─ AMD Pensando Salina DPU は、前世代に比べて 2 倍のパフォーマンスを実現、
AMD Pensando Pollara 400 は業界初の UEC 対応 NIC ─
AMD (NASDAQ: AMD) は本日、次世代 AI インフラの大規模展開を支える最新のアクセラレータとネットワーキングソリューションを発表しました。 AMD Instinct™ MI325X アクセラレータ、 AMD Pensando™ Pollara 400 NIC 、 AMD Pensando Salina DPU を含むこれらの新製品は、生成 AI モデルやデータセンタにおける新たなスタンダードを確立します。
AMD CDNA™ 3 アーキテクチャを基に設計された AMD Instinct MI325X アクセラレータは、基盤モデルのトレーニング、ファインチューニング、推論などの高度な AI タスクで優れたパフォーマンスと効率を発揮します。これらの製品により、 AMD のお客様やパートナーは、システムやラック、データセンタレベルで高性能かつ効率的な AI ソリューションを構築できます。
AMD のデータセンタソリューションズ ビジネスグループのエグゼクティブ バイス プレジデントである Forrest Norrod は次のように述べています。「 AMD は、お客様が AI インフラを大規模かつ迅速に市場へ展開できるよう、求められるパフォーマンスと柔軟な選択肢を提供し続け、ロードマップを着実に進んでいます。新しい AMD Instinct アクセラレータ、 EPYC プロセッサー、 AMD Pensando ネットワーキングエンジン、そしてオープンソフトウェアエコシステムの拡大を通じて、これらを最適な AI インフラとして統合する技術により、 AMD は世界トップレベルの AI ソリューションを構築・展開するための専門知識と技術力を証明しています」
AMD Instinct MI325X 、 AI パフォーマンスをさらに強化
AMD Instinct MI325X アクセラレータは、業界最高水準のメモリ容量と帯域幅を実現。 256GB の HBM3E メモリにより 6.0TB/s の帯域幅を提供し、 H200 と比較して容量が 1.8 倍、帯域幅が 1.3 倍に向上しています。また、 H200 と比べて 1.3 倍のピーク理論 FP16 および FP8 演算性能を誇ります。
この優れたメモリと計算能力により、 Mistral 7B の FP16 推論性能が最大 1.3 倍、 Llama 3.1 70B の FP8 推論性能が最大 1.2 倍、 Mixtral 8x7B の FP16 推論性能が H200 に対して最大 1.4 倍向上します。
AMD Instinct MI325X アクセラレータは、 2024 年第 4 四半期に生産出荷の予定で、 2025 年第 1 四半期からは、 Dell Technologies 、 Eviden 、 Gigabyte 、 Hewlett Packard Enterprise 、 Lenovo、Supermicro などの多様なプラットフォームプロバイダから広くシステムが利用可能になる見込みです。
AMD は、年間のロードマップを着実に進める中で、次世代の AMD Instinct MI350 シリーズアクセラレータを発表しました。このシリーズは AMD CDNA 4 アーキテクチャを基にしており、 AMD CDNA 3 ベースのアクセラレータと比較して、推論性能が 35 倍向上するように設計されています。
AMD Instinct MI350 シリーズは、アクセラレータごとに最大 288GB の HBM3E メモリを搭載し、メモリ容量のリーダーシップを維持します。これらのアクセラレータは、 2025 年下半期の発売を予定しています。
AMD の次世代 AI ネットワーキング
AMD は、ハイパースケーラー向けに最も広く展開されているプログラム可能な DPU を活用し、次世代の AI ネットワーキングを実現します。 AI ネットワーキングはフロントエンドとバックエンドの 2 つの部分に分かれており、フロントエンドが AI クラスターにデータや情報を提供し、バックエンドがアクセラレータとクラスター間のデータ転送を管理します。 AI インフラにおいて CPU とアクセラレータを効率的に活用するためには、 AI ネットワーキングが重要な要素となります。
これら 2 つのネットワークを効果的に管理し、システム全体で高いパフォーマンス、スケーラビリティ、効率を実現するために、 AMD はフロントエンド用の AMD Pensando™ Salina DPU と、業界初の Ultra Ethernet Consortium (UEC) 対応 AI NIC である AMD Pensando™ Pollara 400 をバックエンド用に導入しました。
AMD Pensando Salina DPU は、世界で最も高性能かつプログラム可能な DPU の第 3 世代であり、前世代と比較してパフォーマンス、帯域幅、スケールが最大 2 倍向上しています。 400G のスループットをサポートし、高速なデータ転送を実現する AMD Pensando Salina DPU は、 AI フロントエンドネットワーククラスターにおいて重要な役割を果たし、データ駆動型 AI アプリケーションのパフォーマンス、効率、セキュリティ、およびスケーラビリティを向上させます。
AMD Pensando Pollara 400 は、 AMD P4 プログラム可能エンジンを搭載した業界初の UEC 対応 AI NIC です。次世代 RDMA ソフトウェアをサポートし、オープンなネットワーキングエコシステムに支えられています。この DPU は、バックエンドネットワークにおけるアクセラレータ間の通信において、パフォーマンス、スケーラビリティ、効率を高めるために重要な役割を果たします。
AMD Pensando Salina DPU と AMD Pensando Pollara 400 は、 2024 年第 4 四半期にお客様により試用が実施され、 2025 年上半期に利用可能になる予定です。
AMD の AI ソフトウェア、生成 AI に新たな機能を提供
AMDは、オープンソースのソフトウェア基盤であるAMD ROCm™を通じて、強力な新機能を実現するために、ソフトウェア性能の向上とオープンエコシステムの拡大に継続的な投資を行っています。
AMD は、オープンソフトウェアコミュニティにおいて、 PyTorch や Triton 、 Hugging Face などの主要な AI フレームワークやライブラリで AMD のコンピュートエンジンのサポートを推進しています。この取り組みにより、 Stable Diffusion 3 や Meta Llama 3 シリーズ (3.0、3.1、3.2) 、さらに Hugging Face にある 100 万以上のモデルといった人気の生成 AI モデルで、 AMD Instinct アクセラレータによる優れたパフォーマンスとサポートがすぐに利用できるようになります。
AMD は、コミュニティの枠を超えて、 ROCm オープンソフトウェアスタックをさらに改良し、生成 AI のトレーニングや推論をより強力にサポートしています。最新の ROCm 6.2 では、 FP8 データ型や Flash Attention 3 、カーネルフュージョンといった重要な AI 機能が追加されました。これにより、 ROCm 6.0 と比べて、大規模言語モデル (LLM) の推論性能が最大で 2.4 倍、トレーニング性能が 1.8 倍向上しています。
参考情報
- AMD Next Generation AI Networking についてはこちら
- AMD Instinct アクセラレータについてはこちら
- AMD Advancing AI: 2024 のイベントページはこちら
- Facebook で AMD をフォロー
- X で AMD をフォロー
- 本プレスリリースは、 2024 年 10 月 10 日 (米国時間 / PT ) に米国本社で発表されたプレスリリースの抄訳版です。リリース全文については原文 (英語) をご参照ください。
AMDについて
AMD は、ハイパフォーマンス コンピューティング、グラフィックスと視覚化技術において 50 年以上にわたり革新をもたらしてきました。世界中の何十億人もの消費者、フォーチュン 500 企業、最先端の科学研究機関が、日常の生活、仕事、遊びを向上させるために、 AMD のテクノロジを支持しています。 AMD 社員は、可能性の限界を押し上げる高性能で適応性の高い製品開発に注力しています。日本 AMD 株式会社は、 AMD の日本法人です。 AMD のさらなる詳細は、 AMD のウェブサイト、 Facebook または X をご覧ください。
メディア ライブラリー
最新の AMD の企業ロゴや製品ロゴ、画像、B ロール映像をダウンロードできます。