Lamini
Lamini は Supermicro GPU サーバーと AMD Instinct™ MI300X を使用することで、高速の LLM チューニングを実現しています。
AMD を搭載した Supermicro の迅速展開可能なシステムが、データセンター内のスペースを解放し、業界をリードするパフォーマンスを AI ワークロードにもたらします。
AI イノベーションのペースも緊急性も加速する中、Supermicro と AMD はお客様が常に一歩先を行けるよう連携を図っています。AMD EPYC™ プロセッサと AMD Instinct™ GPU を搭載した Supermicro のラック対応サーバーを導入すれば、パフォーマンス、コスト効率、スケーラビリティが向上し、現在および将来の大規模 AI ワークロードに対応できます。
Supermicro と AMD が共同で AI ライフサイクルに必要なオープンで堅牢なエコシステムと画期的な電力効率を提供し、業界をリードするパフォーマンスと効率性で固有のニーズに応えます。
AMD EPYC プロセッサは、データへの近接性が重視される小規模な AI モデルやワークロードに適しており、AMD Instinct GPU は、非常に高いパフォーマンスが要求される大規模なモデルや専用の AI 展開で力を発揮します。AMD Instinct MI355X 8x GPU プラットフォームは、Llama 3.1 405B モデルにおいて FP4 精度で競合製品よりも最大 1.3 倍高い推論スループットを提供します。1
第 5 世代 AMD EPYC プロセッサと Instinct MI350 シリーズ GPU を搭載した Supermicro H14 サーバーなら、最大規模の AI モデルの大規模導入を効率化できます。その詳細をご紹介します。
AMD Instinct M1300A APU を搭載した Supermicro H13 システムが、AMD Instinct GPU と AMD EPYC プロセッサのパワーと共有メモリを活かし、お客様の AI イニシアチブを力強く推進します。その詳細をご覧ください。
注記: ホワイト ボックス システムのテスト結果です。www.supermicro.com/aplus の Supermicro 製品/プラットフォーム情報を参照してください。
IT 投資の効果を最大化するべく、多くのデータセンターはすでに、利用可能なスペースや電力、あるいはその両方において、キャパシティの限界で稼働しています。AMD EPYC プロセッサを搭載した Supermicro サーバーは、業界をリードするパフォーマンスと効率性でコア ワークロードを統合し、スペース、電力、冷却能力を解放して今後のビジネスクリティカルな AI ワークロードに備えます。
100 台の古いサーバーを、14 台の新しい AMD EPYC 9965 CPU ベースのサーバーに交換2
最大 87% サーバー台数を削減
最大 71% 電力消費を削減
最大 67% 総保有コスト (3 年間) を削減
AMD EPYC 9965 でコストと TCO を削減2
最大 63% サーバー台数を削減
最大 45% 電力消費を削減
最大 44% 総保有コスト (3 年間) を削減
注記: ホワイト ボックス システムのテスト結果です。www.supermicro.com/aplus の Supermicro 製品/プラットフォーム情報を参照してください。
AMD EPYC プロセッサを搭載した Supermicro H14 サーバーのトライアルを要求し、AI ワークロードを実際にテストしてみてください。
十分に構成されたサーバーに対する需要が AI によって高まっている現状と、最新のテクノロジ スタックを今導入することが不可欠だとする IDC の提言をご紹介します。
AMD のデータセンターに関する知見を購読する
AMD EPYC™ および Supermicro の営業担当者からの連絡をリクエスト