Lamini
Lamini は Supermicro GPU サーバーと AMD Instinct™ MI300X を使用することで、高速の LLM チューニングを実現しています。
AMD を搭載した Supermicro の迅速展開可能なシステムが、データセンター内のスペースを解放し、業界をリードするパフォーマンスを AI ワークロードにもたらします。
AI イノベーションのペースも緊急性も加速する中、Supermicro と AMD はお客様が常に一歩先を行けるよう連携を図っています。AMD EPYC™ プロセッサと AMD Instinct™ アクセラレータを搭載した Supermicro の迅速展開が可能なサーバーを導入すれば、パフォーマンス、コスト効率、スケーラビリティが最大化され、大規模な AI ワークロードに今だけでなく将来的にも対応できます。
Supermicro と AMD が共同で AI ライフサイクルに必要なオープンで堅牢なエコシステムと画期的な電力効率を提供し、業界をリードするパフォーマンスと効率性で固有のニーズに応えます。
AMD EPYC プロセッサは、データへの近接性が重視される小規模な AI モデルやワークロードに適し、一方 AMD Instinct アクセラレータは、非常に高いパフォーマンスが要求される大規模なモデルや専用の AI 展開でその力を発揮します。Nvidia H100 HGX と比較した場合、AMD Instinct プラットフォームでは、BLOOM 176B などの LLM での推論実行時にスループットが最大 1.6 倍向上します。1
AMD Instinct M1300X アクセラレータを搭載した Supermicro H13 サーバーが、最大規模の AI モデルの大規模展開をどのようにして合理化するのかをご確認ください。
AMD Instinct M1300A APU 搭載の Supermicro H13 システムが、AMD Instinct アクセラレータと AMD EPYC プロセッサのパワーと共有メモリを組み合わせて、AI イニシアチブをどのように強化するのかをご紹介します。
注記: ホワイト ボックス システムのテスト結果です。www.supermicro.com/aplus の Supermicro 製品/プラットフォーム情報を参照してください。
IT 投資の効果を最大化するべく、多くのデータセンターはすでに、利用可能なスペースや電力、あるいはその両方において、キャパシティの限界で稼働しています。AMD EPYC プロセッサを搭載した Supermicro サーバーは、業界をリードするパフォーマンスと効率性でコア ワークロードを統合し、スペース、電力、冷却能力を解放して今後のビジネスクリティカルな AI ワークロードに備えます。
100 台の旧型 2P Intel® Xeon® Platinum 8280 CPU 搭載サーバーを 14 台の新型 AMD EPYC 9965 CPU 搭載サーバーに置き換え2
最大 87% サーバー台数を削減
最大 71% 電力消費を削減
最大 67% 総保有コスト (3 年間) を削減
コスト削減と TCO 削減に貢献。AMD EPYC 9965 CPU 搭載サーバーと Intel® Xeon® Platinum 8592+ CPU 搭載サーバーの比較2
最大 63% サーバー台数を削減
最大 45% 電力消費を削減
最大 44% 総保有コスト (3 年間) を削減
注記: ホワイト ボックス システムのテスト結果です。www.supermicro.com/aplus の Supermicro 製品/プラットフォーム情報を参照してください。
十分に構成されたサーバーに対する需要が AI によって高まっている現状と、最新のテクノロジ スタックを今導入することが不可欠だとする IDC の提言をご紹介します。
ぜひ体感してみてください。AMD EPYC プロセッサを搭載した Supermicro H14 サーバーのトライアルをリクエストして AI ワークロードを実行できます。
AMD のデータセンターに関する知見を購読する
AMD EPYC™ および Supermicro の営業担当者からの連絡をリクエスト