Escolher a AMD pode transformar seu data center e promover seu negócio

Os processadores AMD EPYC™ são as melhores CPUs de data center do mundo. Eles oferecem o desempenho de computação do data center que as empresas precisam para atender às demandas dos clientes, podem reduzir o espaço ocupado pelo rack, oferecem desempenho eficiente em termos de energia e podem implementar cargas de trabalho de IA em escala.

Modernize e consolide para se preparar para iniciativas de IA

As empresas estão implementando a tecnologia de IA para se manterem competitivas, mas isso pode ser um desafio para os líderes de TI. Adicionar aplicativos de IA à empresa pode sobrecarregar a capacidade da infraestrutura de data center existente. É por isso que a modernização é fundamental. Por exemplo, ao atualizar do Intel Xeon Gold 6143 para o AMD EPYC 9334 de 4ª geração, as organizações podem usar até 73% menos servidores, 70% menos racks e 65% menos energia para atingir uma pontuação SPECrate® Integer de pelo menos 80.000.1

Server room. 3d rendering of data center
AMD Intel Comparison Renditions

Por que escolher o AMD EPYC™?

Selecionar o processador para data center correto para sua próxima implementação de servidor pode ajudar sua organização de TI a obter mais desempenho e densidade e, ao mesmo tempo, manter ou reduzir o espaço ocupado pelo data center.

Por exemplo, para atingir uma pontuação SPECrate® Integer de pelo menos 10.000, seriam necessários 11 dos mais recentes servidores Intel Xeon Platinum 8490H de soquete duplo, mas apenas 6 servidores com tecnologia AMD EPYC 9654 de soquete duplo.

Os servidores equipados com processadores AMD EPYC de 4ª geração podem ajudar você a:

  • Executar as mesmas cargas de trabalho com menos servidores
  • Reduzir os custos operacionais e de energia
  • Liberar espaço e energia preciosos do data center e alocar essa capacidade para novas cargas de trabalho e serviços

Escolha a AMD para suas implantações de IA de data center

Quando se trata de cargas de trabalho de IA, os requisitos são diversos e continuam evoluindo. Tanto as CPUs quanto as GPUs podem se destacar na execução de cargas de trabalho de inferência de IA, com diferentes características e cenários de implantação. A AMD oferece liderança em desempenho e eficiência de IA para CPUs e aceleradores de GPU para implantações de data center.

As melhores CPUs de data center do mundo

Os processadores AMD EPYC de 4ª geração ajudam as empresas a obter insights mais rápidos para acelerar os negócios. A inferência de IA é melhor implementada nas CPUs EPYC quando os tamanhos dos modelos são menores e quando a IA é uma porcentagem menor da combinação geral de cargas de trabalho do servidor.

A carga de computação de IA é um dos muitos fatores que afetam o desempenho geral de um servidor quando implantado na empresa. Para ter uma noção melhor dos recursos gerais de um servidor, é importante examinar o pipeline de ponta a ponta. Quando comparados a servidores com 2x processadores Xeon de 64 núcleos de 5ª geração topo de linha, servidores implantados com 2x processadores EPYC de 96 núcleos de 4ª geração oferecem um desempenho de 1,65x por servidor executando o benchmark TPCx-AI SF30.³

1.65x performance

Aceleradores de GPU para data centers com o mais alto desempenho do mundo

Os aceleradores AMD Instinct™ oferecem desempenho líder para as cargas de trabalho de IA e HPC mais exigentes, com o MI300X proporcionando um desempenho de até 1,3 vezes em precisões de IA em comparação com os aceleradores Nvidia H100 SXM (80 GB)⁴. Além do treinamento de modelos de IA, as GPUs AMD Instinct são ideais para inferência em implementações de IA dedicadas, em que a IA compreende uma parte maior da combinação geral de cargas de trabalho do servidor ou quando a resposta de inferência em tempo real é essencial para a aplicação.

1.3x performance

Soluções

A AMD trabalha com uma variedade de parceiros para projetar e desenvolver soluções otimizadas que utilizam a 4ª geração do AMD EPYC.

Alibaba Cloud
Chaos
Gigabyte
Microsoft Azure
RedHat
Third AI
Altair
Cisco
Google Cloud
msi
Rescale
TigerGraph
Ansys
Cloudera
Hewlett Packard Enterprise
Neural Magic
Siemens
Tyan
ASRock Rack
Dassault Systemes
ieit systems
Nutanix
SuperMicro
visionular
Asus
Dell Technologies
Lenovo
Oracle
Synamedia
vmware
Amazon Web Services
Eviden
Microsoft
Oracle Cloud
Tencent Cloud

Ofereça mais com o AMD EPYC

Os processadores AMD EPYC da 4ª geração foram projetados para oferecer resultados de negócios acelerados, consolidando a infraestrutura e ajudando a reduzir o CAPEX e o OPEX.

Saiba como você pode adicionar mais desempenho e eficiência ao seu data center, ajudando a reduzir os custos, o consumo de energia e o espaço do servidor.

Recomendado por milhares de empresas

No local ou na nuvem, descubra como outras empresas implantaram com sucesso os processadores AMD EPYC.

Emirates NBD

“Descobrimos que as CPUs AMD EPYC™ eram, em média, 42% mais rápidas do que uma alternativa.”

TSMC

“Para nossas cargas de trabalho gerais, a densidade da memória é uma clara vantagem dos processadores AMD EPYC™.”

DBS

“Nosso consumo de energia foi reduzido em 50%. Mas tínhamos dez vezes mais capacidade de crescimento.”

Shell

"O preço, o desempenho e a largura de banda da memória das CPUs com AMD EPYC são perfeitos para nossas necessidades. Eles são de nível mundial."

Inscreva-se para receber as últimas notícias e conteúdo sobre data center.

Notas de rodapé
  1. SP5TCO-055: Este cenário contém muitas suposições e estimativas e, embora seja baseado nas pesquisas internas da AMD e nas melhores aproximações, deve ser considerado um exemplo apenas para fins informativos e não deve ser usado como base para a tomada de decisões em vez dos testes reais. A Ferramenta de estimativa de TCO (custo total de propriedade) de emissões de gases de efeito estufa dos servidores bare metal, versão 9.37 Pro Refresh, compara as soluções de servidor baseadas em CPUs AMD EPYC™ e Intel® Xeon® necessárias para fornecer um DESEMPENHO TOTAL de 80.000 unidades de desempenho inteiro com base nas pontuações publicadas em 1º de junho de 2023 para esses servidores específicos baseados em CPUs Intel Xeon e AMD EPYC.  Essa estimativa reflete um período de três anos com uma PUE de 1,7 e um custo de energia nos EUA de $0.128 / kWh.  Esta análise compara um servidor com tecnologia de CPU 2P AMD de 32 núcleos EPYC 9334 com uma pontuação SPECrate®2017_int_base de 725, https://spec.org/cpu2017/results/res2023q1/cpu2017-20230102-33282.pdf, a um servidor com base em 2P Intel Xeon de 16 núcleos Gold_6143 e uma pontuação SPECrate®2017_int_base de 197, https://spec.org/cpu2017/results/res2017q4/cpu2017-20171114-00863.pdf. Devido à ampla variação de custos para imóveis ou administradores, esse TCO não inclui seus custos nesta análise. O novo OpEx de servidor com tecnologia AMD consiste somente em energia.  O OpEx para a base de instalação legada de servidores com CPUs Intel consiste em energia mais os custos de garantia estendida. O custo para estender o suporte à garantia do servidor é calculado em 20% anualmente do preço de compra inicial, que é calculado usando os custos de 2023.  Utilizando isso e os custos de energia, significa que a solução AMD para um TCO de 3 anos é mais de 2,5 milhões de dólares a menos (62% a menos) e tem um OpEx anual de 93% ou 1,2 milhões de dólares a menos. As estimativas de impacto ambiental foram feitas aproveitando esses dados, usando os fatores de eletricidade específicos do país/região dos 'Fatores de Emissões de Eletricidade da Rede 2020 v1.4 - setembro de 2020' e a 'Calculadora de Equivalências de Gás de Efeito Estufa' da Agência de Proteção Ambiental dos Estados Unidos. Para mais detalhes, acesse: https://www.amd.com/en/claims/epyc4#SP5TCO-055   
  2. SP5TCO-032: Este cenário contém muitas suposições e estimativas e, embora seja baseado nas pesquisas internas da AMD e nas melhores aproximações, deve ser considerado um exemplo apenas para fins informativos e não deve ser usado como base para a tomada de decisões em vez dos testes reais. A versão 6.80 da ferramenta para estimativa de TCO (Total Cost of Ownership, custo total de propriedade) de emissões de gases do efeito estufa do servidor Bare Metal compara as soluções selecionadas de servidor com base em CPU AMD EPYC™ e Intel® Xeon® necessárias para oferecer um DESEMPENHO TOTAL de 10.000 unidades de desempenho inteiro com base nas pontuações publicadas para esses servidores específicos baseados em CPU Intel Xeon e AMD EPYC a partir de 10 de janeiro de 2023. Essa estimativa reflete um período de três anos com uma PUE de 1,7 e um custo de energia nos EUA de US$ 0,16/kWh. Esta análise compara um servidor com tecnologia 2P AMD 96 núcleos AMD EPYC_9654 e uma pontuação SPECrate2017_int_base de 1790, https://spec.org/cpu2017/results/res2022q4/cpu2017-20221024-32607.pdf, com um servidor com base em 2P Intel Xeon 60 núcleos Platinum_8490H e uma pontuação SPECrate2017_int_base de 991, https://spec.org/cpu2017/results/res2023q1/cpu2017-20221206-33039.pdf. As estimativas de impacto ambiental foram feitas aproveitando esses dados, usando os fatores de eletricidade específicos do país/região dos 'Fatores de Emissões de Eletricidade da Rede 2020 v1.4 - setembro de 2020' e a 'Calculadora de Equivalências de Gás de Efeito Estufa' da Agência de Proteção Ambiental dos Estados Unidos. Para obter mais detalhes, consulte https://www.amd.com/en/claims/epyc4#SP5TCO-032.
  3.  SP5-051A: Comparação de carga de trabalho derivada TPCx-AI SF30 com base em testes internos da AMD executando várias instâncias de VM em 13/04/2024. O teste de produtividade de IA de ponta a ponta agregado é derivado da avaliação de desempenho TPCx-AI e, como tal, não é comparável aos resultados publicados do TPCx-AI, já que os resultados de teste de produtividade de IA de ponta a ponta não estão em conformidade com a especificação do TPCx-AI. Configuração do sistema AMD: Processadores: 2 AMD EPYC 9654; Frequências: 2,4 GHz | 3,7 GHz; Núcleos: 96 núcleos por soquete (1 domínio NUMA por soquete); Cache L3: 384 MB/soquete (768 MB total); Memória: 1,5 TB; (24) DIMMs DDR5-5600 de 64 GB com fileira dupla, 1DPC (plataforma com suporte para até 4.800 MHz); NIC: 2 Mellanox CX-5 (MT28800) de 100 GbE; Armazenamento: Samsung MO003200KYDNC U.3 NVMe de 3,2 TB; BIOS: 1,56; Configurações do BIOS: SMT=ON, Determinism=Power, NPS=1, PPL=400W, Turbo Boost=Enabled; SO: Ubuntu® 22.04.3 LTS; Configuração de teste: 6 instâncias, 64 vCPUs/instância, 2.663 casos de uso agregados de IA/min vs. Configuração do sistema Intel: Processadores: 2 Intel® Xeon® Platinum 8592+; Frequências: 1,9 GHz | 3,9 GHz; Núcleos: 64 núcleos por soquete (1 domínio NUMA por soquete); Cache L3: 320 MB/soquete (640 MB total); Memória: 1 TB, (16) DIMMs DDR5-5600 de 64 GB com fileira dupla, 1DPC; NIC: 4 PCIe Gigabit Ethernet Broadcom NetXtreme BCM5719 de 1 GbE; Armazenamento: KIOXIA KCMYXRUG3T84 NVMe de 3,84 TB; BIOS: ESE124B-3.11; Configurações do BIOS: Hyperthreading=Enabled, Turbo boost=Enabled, SNC=Disabled; SO: Ubuntu® 22.04.3 LTS; Configuração de teste: 4 instâncias, 64 vCPUs/instância, 1.607 casos de uso de IA agregada/min. Os resultados podem variar devido a fatores como configuração do sistema, versões de software e configurações do BIOS.  TPC, TPC Benchmark e a TPC-C são marcas comerciais do Transaction Processing Performance Council. 
  4. MI300-17: As medições realizadas pela AMD Performance Labs em 11 de novembro de 2023 na GPU AMD Instinct™ MI300X (750W) projetada com tecnologia de processo FinFET do AMD CDNA™ de 3 5 nm | 6 nm com aumento de pico do clock do mecanismo de 2.100 MHz resultaram em pico teórico do TensorFloat-32 de 653,7 TFLOPS (TF32), pico de meia precisão teórica de 1.307,4 TFLOPS (FP16), pico de precisão do formato Bfloat16 (BF16) de 1.307,4 TFLOPS, pico de precisão teórica de 8 bits (FP8) de 2.614,9 TFLOPS, desempenho do ponto de flutuação INT8 de 2.614,9 TOPs. É esperado que o MI300X seja capaz de aproveitar a dispersão da estrutura de granulação fina proporcionando uma melhoria estimada de 2x na eficiência matemática, resultando em pico teórico do TensorFloat-32 (TF32) de 1.307,4 TFLOPS, pico de meia precisão teórica (FP16) de 2.614,9 TFLOPS, pico de precisão do formato Bfloat16 (BF16) de 2.614,9 TFLOPS, pico de precisão teórica de 8 bits (FP8) de 5.229,8 TFLOPS, desempenho do ponto de flutuação INT8 de 5.229,8 TOPs com dispersão. Os resultados publicados na GPU Nvidia H100 SXM (80GB) 700W resultaram em 989,4 TFLOPs de pico de TensorFloat-32 (TF32) com dispersão, 1.978,9 TFLOPS de pico de meia precisão teórica (FP16) com dispersão, 1.978,9 TFLOPS de pico teórico de precisão de formato Bfloat16 (BF16) com dispersão, 3.957,8 TFLOPS de pico teórico de precisão de 8 bits (FP8) com dispersão, 3.957,8 TOPs de pico teórico de INT8 com desempenho de ponto flutuante com dispersão. Fonte NVIDIA H100: https://resources.nvidia.com/en-us-tensor-core. MI300-17