

AMD CDNA 3
O AMD CDNA™ 3 é a arquitetura de computação dedicada subjacente aos aceleradores AMD Instinct™ Série MI300. Ele apresenta uma pacote avançado com tecnologias de chiplet, projetadas para reduzir a sobrecarga de movimento de dados e aumentar a eficiência de energia.
Unidade de processamento acelerado AMD Instinct MI300A

Aceleradores AMD Instinct MI325X


Tecnologias Matrix Core
O AMD CDNA 3 inclui as Tecnologias Matrix Core que oferecem produtividade computacional melhorada com paralelismo aprimorado no nível de instrução, incluindo suporte para uma ampla variedade de precisões (INT8, FP8, BF16, FP16, TF32, FP32, e FP64), bem como dados de matriz dispersos (ou seja, dispersão).
Memória HBM, coerência e cache
Os aceleradores AMD Instinct Série MI300 oferecem capacidade HBM3e e largura de banda de memória líderes do setor1,2, bem como memória compartilhada e AMD Infinity Cache™ (Last Level Cache compartilhado), eliminando a cópia de dados e melhorando a latência.


Fabric unificado
A Arquitetura AMD Infinity de última geração, juntamente com a tecnologia AMD Infinity Fabric™, permite a unificação coerente e de alto rendimento das tecnologias de GPU e de CPU chiplet da AMD com memória HBM3 empilhada em dispositivos únicos e em plataformas multidispositivos. Ela também oferece E/S aprimorada com compatibilidade com PCIe® 5.

AMD CDNA 2
A arquitetura AMD CDNA 2 foi projetada para acelerar até mesmo as cargas de trabalho de computação científica e os aplicativos de aprendizado de máquina mais exigentes. Está subjacente aos aceleradores AMD Instinct Série MI200.

AMD CDNA
A arquitetura AMD CDNA é uma arquitetura dedicada para computação baseada em GPU que foi projetada para inaugurar a era da computação de classe Exascale. Está subjacente aos aceleradores AMD Instinct Série MI100.

Aceleradores AMD Instinct
Descubra como os aceleradores AMD Instinct supercarregam a IA e a HPC.

Software AMD ROCm™
A arquitetura AMD CDNA é compatível com AMD ROCm™, uma pilha de software aberto que inclui um amplo conjunto de modelos de programação, ferramentas, compiladores, bibliotecas e tempos de execução para desenvolvimento de soluções de IA e HPC visando aceleradores AMD Instinct.
Notas de rodapé
©2023 Advanced Micro Devices, Inc. Todos os direitos reservados. AMD, o logotipo de seta AMD, AMD CDNA, Infinity Fabric, ROCm e suas combinações são marcas comerciais da Advanced Micro Devices, Inc. PCIe é uma marca registrada da PCI-SIG Corporation. Outros nomes são apenas para fins informativos e podem ser marcas comerciais de seus respectivos proprietários.
- Cálculos conduzidos pelo AMD Performance Labs em 7 de novembro de 2023 para o acelerador AMD Instinct™ MI300A APU de 760W (HBM3 de 128 GB), projetado com a tecnologia de processo AMD CDNA™ 3 5 nm FinFet, que resultou em capacidade de memória HBM3 de 128 GB e desempenho de largura de banda de memória de pico teórica de 5,325 TFLOPS. A interface do barramento de memória MI300A é de 8.192 bits (1.024 bits x 8 die) e a taxa de dados de memória é de 5,2 Gbps para largura de banda de memória total máxima de 5,325 TB/s (interface de barramento de memória de 8.192 bits * taxa de dados de memória de 5,2 Gbps/8). Os resultados mais altos publicados sobre o acelerador de GPU SXM Nvidia Hopper H200 (141 GB) resultaram em capacidade de memória HBM3e de 141 GB e desempenho de largura de banda de memória da GPU de 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446. Os resultados mais altos publicados sobre o acelerador de GPU SXM Nvidia Hopper H100 (80 GB) resultaram em capacidade de memória HBM3 de 80 GB e desempenho de largura de banda de memória da GPU de 3,35 TB/s. https://resources.nvidia.com/en-us-tensor-core/nvidia-tensor-core-gpu-datasheet. Os fabricantes de servidores podem variar as ofertas de configuração, produzindo resultados diferentes. MI300-12
- MI325-001A – Cálculos realizados pelo AMD Performance Labs em 26 de setembro de 2024, com base nas especificações e/ou estimativas atuais. O acelerador AMD Instinct™ MI325X OAM terá capacidade de memória HBM3E de 256 GB e desempenho de largura de banda de memória teórica de pico de GPU de 6 TB/s. Os resultados reais baseados na produção de silício podem variar.
Os resultados publicados mais elevados para o acelerador de GPU NVidia Hopper H200 (141 GB) SXM resultaram em capacidade de memória HBM3E de 141 GB e desempenho de largura de banda de memória de GPU de 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
Os resultados publicados mais elevados para o acelerador de GPU NVidia Blackwell HGX B100 (192 GB) 700W resultaram em capacidade de memória HBM3E de 192 GB e desempenho de largura de banda de memória de GPU de 8 TB/s.
Os resultados publicados mais elevados para o acelerador de GPU Blackwell HGX B200 (192GB) SXM resultaram em capacidade de memória HBM3E de 192 GB e desempenho de largura de banda de memória de GPU de 8 TB/s.
Especificações NVIDIA Blackwell em https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZB
©2023 Advanced Micro Devices, Inc. Todos os direitos reservados. AMD, o logotipo de seta AMD, AMD CDNA, Infinity Fabric, ROCm e suas combinações são marcas comerciais da Advanced Micro Devices, Inc. PCIe é uma marca registrada da PCI-SIG Corporation. Outros nomes são apenas para fins informativos e podem ser marcas comerciais de seus respectivos proprietários.
- Cálculos conduzidos pelo AMD Performance Labs em 7 de novembro de 2023 para o acelerador AMD Instinct™ MI300A APU de 760W (HBM3 de 128 GB), projetado com a tecnologia de processo AMD CDNA™ 3 5 nm FinFet, que resultou em capacidade de memória HBM3 de 128 GB e desempenho de largura de banda de memória de pico teórica de 5,325 TFLOPS. A interface do barramento de memória MI300A é de 8.192 bits (1.024 bits x 8 die) e a taxa de dados de memória é de 5,2 Gbps para largura de banda de memória total máxima de 5,325 TB/s (interface de barramento de memória de 8.192 bits * taxa de dados de memória de 5,2 Gbps/8). Os resultados mais altos publicados sobre o acelerador de GPU SXM Nvidia Hopper H200 (141 GB) resultaram em capacidade de memória HBM3e de 141 GB e desempenho de largura de banda de memória da GPU de 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446. Os resultados mais altos publicados sobre o acelerador de GPU SXM Nvidia Hopper H100 (80 GB) resultaram em capacidade de memória HBM3 de 80 GB e desempenho de largura de banda de memória da GPU de 3,35 TB/s. https://resources.nvidia.com/en-us-tensor-core/nvidia-tensor-core-gpu-datasheet. Os fabricantes de servidores podem variar as ofertas de configuração, produzindo resultados diferentes. MI300-12
- MI325-001A – Cálculos realizados pelo AMD Performance Labs em 26 de setembro de 2024, com base nas especificações e/ou estimativas atuais. O acelerador AMD Instinct™ MI325X OAM terá capacidade de memória HBM3E de 256 GB e desempenho de largura de banda de memória teórica de pico de GPU de 6 TB/s. Os resultados reais baseados na produção de silício podem variar. Os resultados publicados mais elevados para o acelerador de GPU NVidia Hopper H200 (141 GB) SXM resultaram em capacidade de memória HBM3E de 141 GB e desempenho de largura de banda de memória de GPU de 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
Os resultados publicados mais elevados para o acelerador de GPU NVidia Blackwell HGX B100 (192 GB) 700W resultaram em capacidade de memória HBM3E de 192 GB e desempenho de largura de banda de memória de GPU de 8 TB/s.
Os resultados publicados mais elevados para o acelerador de GPU Blackwell HGX B200 (192GB) SXM resultaram em capacidade de memória HBM3E de 192 GB e desempenho de largura de banda de memória de GPU de 8 TB/s.
Especificações NVIDIA Blackwell em https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZB