AMD CDNA 3

AMD CDNA™ 3은 AMD Instinct™ MI300 시리즈 가속기의 기반이 되는 전용 컴퓨팅 아키텍처입니다. 데이터 이동 오버헤드를 줄이고 전력 효율을 높이도록 설계된 칩렛 기술을 사용한 고급 패키징을 특징으로 합니다.

AMD Instinct MI300A 가속 프로세싱 유닛

AMD Instinct MI325X 가속기

매트릭스 코어 기술

AMD CDNA 3에는 강화된 명령 수준 병렬화와 함께 향상된 컴퓨팅 처리율을 제공하는 매트릭스 코어 기술이 포함되어 있으며, 여기에는 광범위한 정밀도(INT8, FP8, BF16, FP16, TF32, FP32, FP64)와 희소 매트릭스 데이터(예: 스파시티)에 대한 지원이 포함됩니다. 

HBM 메모리, 캐시 및 일관성

AMD Instinct MI300 시리즈 가속기는 업계 최고의 HBM3e 용량 및 메모리 대역폭1,2뿐 아니라 공유 메모리 및 AMD Infinity Cache™(공유 라스트 레벨 캐시)를 제공하여 데이터 복사를 제거하고 지연율을 개선합니다.

대체 텍스트 추가

통합 패브릭

차세대 AMD Infinity 아키텍처는 AMD Infinity Fabric™ 기술과 함께 단일 장치 및 다중 장치 플랫폼에서 스택형 HBM3 메모리를 사용하여 AMD GPU 및 CPU 칩렛 기술을 일관된 높은 처리율로 통합할 수 있습니다. 또한 PCIe® 5 호환성을 통해 강화된 I/O를 제공합니다.

대체 텍스트 추가

AMD CDNA 2

AMD CDNA 2 아키텍처는 가장 까다로운 과학 컴퓨팅 워크로드 및 머신러닝 애플리케이션도 가속화하도록 설계되었습니다. 이 아키텍처는 AMD Instinct MI200 시리즈 가속기의 기반이 됩니다.

대체 텍스트 추가

AMD CDNA

AMD CDNA 아키텍처는 엑사스케일급 컴퓨팅 시대를 열도록 설계된 GPU 기반 컴퓨팅 전용 아키텍처입니다. 이 아키텍처는 AMD Instinct MI100 시리즈 가속기의 기반이 됩니다.

AMD Instinct 가속기

AMD Instinct 가속기가 어떻게 AI 및 HPC 성능을 극대화하는지 알아보세요.

AMD ROCm™ 소프트웨어

AMD CDNA 아키텍처는 AMD Instinct 가속기를 대상으로 하는 AI 및 HPC 솔루션 개발을 위한 광범위한 프로그래밍 모델, 도구, 컴파일러, 라이브러리, 런타임 세트가 포함된 개방형 소프트웨어 스택인 AMD ROCm™에서 지원됩니다. 

각주

©2023 Advanced Micro Devices, Inc. all rights reserved. AMD, AMD arrow, AMD Instinct, AMD CDNA, Infinity Fabric, ROCm 및 그 조합은 Advanced Micro Devices, Inc.의 상표입니다. PCIe는 PCI-SIG Corporation의 등록 상표입니다. 기타 명칭은 오로지 정보 목적으로만 사용되며, 각 소유자의 상표일 수 있습니다.

  1. 2023년 11월 7일 기준, AMD 퍼포먼스 랩이 AMD CDNA™ 3 5nm FinFet 공정 기술로 설계된 AMD Instinct™ MI300A APU 가속기 760W(128GB HBM3)에 대해 계산한 결과 128GB HBM3 메모리 용량과 5.325TFLOPS의 이론상 최대 메모리 대역폭 성능을 기록했습니다. MI300A 메모리 버스 인터페이스는 8,192비트(1024비트 x 8개 다이)이고 메모리 데이터율은 5.2Gbps로 총 최대 메모리 대역폭은 5.325TB/s를 기록했습니다(8,192비트 메모리 버스 인터페이스 * 5.2Gbps 메모리 데이터율/8). NVidia Hopper H200(141GB) SXM GPU 가속기에 대해 게시된 최고 결과는 141GB HBM3e 메모리 용량 및 4.8TB/s GPU 메모리 대역폭 성능입니다(https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446). NVidia Hopper H100(80GB) SXM GPU 가속기에 대해 게시된 최고 결과는 80GB HBM3 메모리 용량 및 3.35TB/s GPU 메모리 대역폭 성능입니다(https://resources.nvidia.com/en-us-tensor-core/nvidia-tensor-core-gpu-datasheet). 서버 제조업체마다 구성 서비스가 다양하여 다른 결과가 나올 수 있습니다. MI300-12
  2. MI325-001A - 2024년 9월 26일 현재 AMD 퍼포먼스 랩에서 현재 사양 및/또는 추정치를 기준으로 수행한 계산입니다. AMD Instinct™ MI325X OAM 가속기는 256GB HBM3E 메모리 용량과 6TB/s GPU의 이론상 최대 메모리 대역폭 성능을 제공합니다. 프로덕션 실리콘에 따라 실제 결과는 다를 수 있습니다.
  3. Nvidia Hopper H200(141GB) SXM GPU 가속기에 대해 게시된 최고 결과는 141GB HBM3E 메모리 용량 및 4.8TB/s GPU 메모리 대역폭 성능입니다.  https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
    Nvidia Blackwell HGX B100(192GB) 700W GPU 가속기에 대해 게시된 최고 결과는 192GB HBM3e 메모리 용량 및 8TB/s GPU 메모리 대역폭 성능입니다.
    Nvidia Blackwell HGX B200(192GB) GPU 가속기에 대해 게시된 최고 결과는 192GB HBM3E 메모리 용량 및 8TB/s GPU 메모리 대역폭 성능입니다.
    Nvidia Blackwell 사양은 다음 페이지에서 확인할 수 있습니다. https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZB