AI 및 HPC 컴퓨팅의 미래를 뒷받침
AI와 고성능 컴퓨팅(HPC)은 모든 부문의 산업을 혁신하여 자동화를 구현하고 의사 결정을 개선하며 새로운 제품과 서비스를 가능하게 하고 있습니다. 거의 모든 분야와 산업에서 새로운 기회는 더 나은 생산성과 비즈니스 성과를 이끌고, 더 밝은 미래로 우리를 인도하고 있습니다.
그러나 컴퓨팅에 대한 끊임없는 수요로 인해 보다 강력한 하드웨어에 대한 요구가 일어나고 있습니다. 수백만 명의 사용자를 지원하는 데 필요한 수준의 생성형 AI 및 머신러닝을 제공할 수 있을 만큼의 대규모 시스템을 구축하는 기업이 늘어남에 따라 효율성과 공간에 관심이 쏠리고 있습니다. 고객은 많은 구성 요소와 많은 시스템, 상당한 에너지가 필요한 솔루션을 어떻게 구성할 수 있을까요?
비즈니스에서 AI와 HPC를 활용하고자 하는 고객을 위해 AMD Instinct™ 가속기는 아키텍처 변혁과 제품 혁신을 통해 서버 크기나 에너지 사용을 크게 늘리지 않고도 놀라운 성능을 제공함으로써 이를 실현하고 있습니다. AMD는 고객이 어떤 산업에 종사하든 가장 까다로운 AI 및 HPC 워크로드를 충족하는 데 필요한 파워를 갖춘 GPU 제품인 AMD Instinct MI300X 가속기를 발표하게 되어 기쁘게 생각합니다.
엑사스케일 시대로 AI 및 HPC 진입 가속화
AMD CDNA™ 아키텍처에 기반한 AMD Instinct 가속기는 최신 비즈니스를 위한 컴퓨팅을 재정의하고 있습니다. 엑사스케일 시대를 위해 처음부터 설계된 이 프로세스는 AMD Radeon™ Instinct 제품과 같은 이전 세대 GCN 기반 제품에 비해 막대한 성능 향상을 제공합니다.1 이제 AMD Instinct 제품의 새로운 세대가 등장하면서 성능 도약은 계속 이어질 것입니다.
3세대 AMD CDNA 아키텍처로 설계된 AMD Instinct MI300 시리즈 가속기는 올해 초 AI 및 HPC 워크로드를 위한 세계 최초의 APU인 AMD Instinct™ MI300A APU 가속기가 소개되면서 함께 공개되었습니다. 획기적인 밀도와 효율성을 갖춘 강력한 AMD Instinct MI300A 가속기는 CPU, GPU, 고대역폭 메모리(HBM3)를 하나의 APU로 결합하여, 가속화된 하드웨어의 이점을 활용할 수 있는 다양한 최첨단 워크로드에서 다재다능한 성능을 제공합니다.
이제 AI가 가능 응용 분야와 수요 모두에서 계속 성장함에 따라, AMD Instinct MI300X GPU 가속기는 시장의 기존 AMD 제품과 함께 고객이 원하는 수준의 성능을 제공하고 있습니다. AMD Instinct MI300X 가속기는 CPU 코어 대신 기본 GPU 성능을 제공하는 데 집중하며, 최대 8개의 GPU를 하나의 노드에 포함할 수 있습니다. 결과는 어떨까요? 놀라운 성능과 선도적인 메모리 대역폭을 통해 지원되는 HBM3 메모리 용량에 힘입어 오랫동안 이어져 온 HPC 워크로드의 가속화와 최근 급증하는 생성형 AI 컴퓨팅 수요를 새로운 수준으로 끌어올릴 수 있습니다.2
AMD Instinct MI300X 가속기는 192GB의 HBM3 메모리를 제공하여 경쟁사 제품 대비 최대 2.4배의 밀도를 제공하고 최대 5.3TB/s의 피크 메모리 대역폭을 지원하며, 구입 가능한 경쟁사 제품에 비해 최대 1.6배의 대역폭을 제공합니다.2
규모에 맞는 효율성
AI 워크로드가 확장됨에 따라 이를 구동하는 하드웨어도 확장되어야 합니다. 기업이 수요를 충족하기 위해 확장함에 따라 공간은 빠르게 프리미엄을 차지하게 되며, 이는 고객이 극복해야 하는 병목현상이 됩니다.
AMD Instinct MI300X 가속기는 이를 감안하고 UBB 업계 표준 OCP 플랫폼 설계 드롭인 솔루션을 제공합니다. 이 솔루션을 통해 고객은 단일 플랫폼에 총 1.5TB의 HBM3 메모리를 갖춘 완전히 연결된 피어 투 피어 링 디자인과 단일 성능 기반 노드의 8개 GPU를 결합할 수 있습니다. 어떤 AI 또는 HPC 워크로드 구축에도 적용 가능한 성능 집약적 솔루션이 되는 것입니다.
AMD ROCm™: AI 가능성으로 가득 찬 오픈 소프트웨어 플랫폼
AMD ROCm™은 업계 유일의 GPU 컴퓨팅을 위한 오픈 소프트웨어 플랫폼으로, 고객이 특정 판매업체의 제한된 옵션에 얽매이지 않도록 합니다. 오픈/휴대용 소프트웨어 플랫폼을 통해 고객은 아키텍처 유연성을 확보하고 하드웨어로 더 많은 작업을 수행할 수 있는 자유를 누릴 수 있습니다.
AMD MI300X 가속기와 같은 혁신적인 제품 덕분에 AMD는 AI 분야에서 가능성의 영역을 확장해 가고 있습니다. 그렇기에 고객은 바로 지금 오픈 생태계, 서버 사용자를 위해 점점 더 다양해지고 있는 강력한 제품, 전용 및 적응형 아키텍처를 통한 맞춤형 솔루션을 갖추고 있는 AMD Instinct 가속기에 대해 자세히 알고 있어야 합니다. 지금 바로 AI와 고성능 컴퓨팅의 가능성을 실현해 보세요.
지금 바로 AMD 담당자에게 연락하여 자세한 내용을 알아보거나, AMD Instinct Hub를 방문하여 자세히 알아보세요.
각주
- MI100-04: 계산은 AMD 퍼포먼스 랩에 의해 AMD Instinct™ MI100 가속기에 대해 1,502MHz 피크 부스트 엔진 클럭에서 2020년 9월 18일에 수행되었으며, 결과는 184.57TFLOP 피크 이론상 반정도(FP16) 및 46.14TFLOP 피크 이론상 단정도(FP32) 매트릭스 부동 소수점 성능이었습니다. 1,725MHz 피크 엔진 클럭에서 Radeon Instinct™ MI50 GPU에 대한 계산 결과는 26.5TFLOP 피크 이론상 반정도(FP16) 및 13.25TFLOP 피크 이론상 단정도(FP32) 매트릭스 부동 소수점 성능을 나타냈습니다. 서버 제조업체마다 구성 서비스가 다양하여 다른 결과가 나올 수 있습니다.
- MI300-05A: 2023년 5월 17일 기준, AMD 퍼포먼스 랩에 의해 AMD CDNA™ 3 5nm FinFet 프로세스 기술과 함께 설계된 AMD Instinct™ MI300X OAM 가속기 750W(192GB HBM3)에 대해 수행된 계산 결과, 192GB HBM3 메모리 용량 및 일관된 5.218TFLOP 피크 메모리 대역폭 성능을 나타냈습니다. MI300X 메모리 버스 인터페이스는 8,192이고 5.218 TB/s(8,192비트 메모리 버스 인터페이스 * 5.6Gbps 메모리 데이터율/8)*0.91로 조정하여 제공된 일관된 총 피크 메모리 대역폭의 메모리 데이터율은 5.6Gbps입니다. NVidia Hopper H100 (80GB) SXM GPU 가속기에 대해 게시된 최고 결과는 80GB HBM3 메모리 용량 및 3.35TB/s GPU 메모리 대역폭 성능입니다.
- MI100-04: 계산은 AMD 퍼포먼스 랩에 의해 AMD Instinct™ MI100 가속기에 대해 1,502MHz 피크 부스트 엔진 클럭에서 2020년 9월 18일에 수행되었으며, 결과는 184.57TFLOP 피크 이론상 반정도(FP16) 및 46.14TFLOP 피크 이론상 단정도(FP32) 매트릭스 부동 소수점 성능이었습니다. 1,725MHz 피크 엔진 클럭에서 Radeon Instinct™ MI50 GPU에 대한 계산 결과는 26.5TFLOP 피크 이론상 반정도(FP16) 및 13.25TFLOP 피크 이론상 단정도(FP32) 매트릭스 부동 소수점 성능을 나타냈습니다. 서버 제조업체마다 구성 서비스가 다양하여 다른 결과가 나올 수 있습니다.
- MI300-05A: 2023년 5월 17일 기준, AMD 퍼포먼스 랩에 의해 AMD CDNA™ 3 5nm FinFet 프로세스 기술과 함께 설계된 AMD Instinct™ MI300X OAM 가속기 750W(192GB HBM3)에 대해 수행된 계산 결과, 192GB HBM3 메모리 용량 및 일관된 5.218TFLOP 피크 메모리 대역폭 성능을 나타냈습니다. MI300X 메모리 버스 인터페이스는 8,192이고 5.218 TB/s(8,192비트 메모리 버스 인터페이스 * 5.6Gbps 메모리 데이터율/8)*0.91로 조정하여 제공된 일관된 총 피크 메모리 대역폭의 메모리 데이터율은 5.6Gbps입니다. NVidia Hopper H100 (80GB) SXM GPU 가속기에 대해 게시된 최고 결과는 80GB HBM3 메모리 용량 및 3.35TB/s GPU 메모리 대역폭 성능입니다.