Webinar em destaque

Saiba como os processadores AMD EPYC™ Série 9004 permitem a implantação do processamento de IA baseado em CPU que é eficiente para pequenos modelos de IA, muitas cargas de trabalho clássicas de ML e inferência, além de cargas de trabalho de computação tradicionais aprimoradas pela IA.

Abstract connected dots and lines

Portfólio de ponta para lidar com cargas de trabalho de AI Inference empresarial

A AI Inference usa um modelo de IA treinado para fazer previsões sobre novos dados.  A AMD oferece uma grande variedade de soluções para AI Inference dependendo do tamanho do seu modelo e dos requisitos de aplicação.  As CPUs AMD EPYC™ são uma excelente opção para modelos de IA de pequeno a médio porte e cargas de trabalho em que a proximidade aos dados é importante. As GPUs AMD Instinct™ são perfeitas para modelos grandes e implantações de IA dedicadas que exigem desempenho e escala muito altos. Ambos oferecem desempenho e eficiência impressionantes, permitindo que você escolha a solução certa para atender às suas necessidades.

Modelo pequeno

Tamanho do modelo   Tipo Prós Contras Casos de uso comuns
Pequeno   Clássico
  • Inferência mais rápida
  • Requisitos de recursos mais baixos
  • Menor precisão
  • Tarefas menos complexas
  • Reconhecimento de imagem (básico)
  • Análise de sentimento
  • Detecção de spam
Gerativo
  • Geração de conteúdo criativo (por exemplo, música, arte)
  • Personalização
  • Controle limitado sobre a saída
  • Potencial para viés
  • Geração de texto (curto)
  • Chatbots

Modelo médio

Tamanho do modelo   Tipo Prós Contras Casos de uso comuns
Médio Clássico
  • Equilíbrio entre velocidade e precisão
  • Adequado para tarefas de complexidade moderada
  • Pode exigir mais dados de treinamento
  • Menos eficiente para conjuntos de dados muito grandes
  • Detecção de objetos em vídeos
  • Tradução automática
  • Chatbots de atendimento ao cliente
Preditivo
  • Previsões precisas para várias tarefas
  • Dimensionável para conjuntos de dados maiores
  • Pode ser caro em termos computacionais
  • Requer uma preparação cuidadosa dos dados
  • Detecção de fraude
  • Avaliação de risco
  • Previsão de vendas

Modelo grande

Tamanho do modelo   Tipo Prós Contras Casos de uso comuns
Grande   Gerativo
  • Geração de conteúdo altamente realista e complexo
  • Compreensão avançada da linguagem
  • Uso intensivo de recursos
  • Alto risco de viés e preocupações éticas
  • Geração de texto (complexo)
  • Geração de imagens e vídeos
  • Projeto de conteúdo criativo
Clássico
  • Alta precisão para tarefas complexas
  • Pode lidar com conjuntos de dados grandes e diversos
  • Uso extremamente intensivo de recursos
  • Difícil de interpretar e explicar
  • Diagnóstico médico
  • Carros autônomos
  • Reconhecimento facial
Preditivo
  • Previsões altamente precisas com grandes conjuntos de dados
  • Lida com relacionamentos e padrões complexos
  • Alto custo de treinamento e execução
  • Requer dados e conhecimentos abrangentes
  • Recomendações personalizadas
  • Análise do mercado financeiro
  • Descoberta científica

Aplicações e setores

Os modelos de IA integrados na visão computacional, de processamento de linguagem natural e de sistemas de recomendação têm impactado significativamente as empresas em vários setores. Esses modelos ajudam as empresas a reconhecer objetos, classificar anomalias, entender palavras escritas e faladas e fazer recomendações. Ao acelerar o desenvolvimento desses modelos, as empresas podem aproveitar os benefícios, independentemente do setor onde atuam.

Automated Driving Illustration

Automotivo

Os modelos de visão computacional ajudam a impulsionar carros autônomos e a reconhecer sinalização, pedestres e outros veículos a serem evitados. Modelos de processamento de linguagem natural podem ajudar a reconhecer comandos falados para telemática no carro.

data image

Serviços financeiros

A detecção de anomalias com tecnologia de IA ajuda a impedir a fraude de cartões de crédito, enquanto os modelos de visão computacional analisam documentos suspeitos, incluindo verificações de clientes.

abstract retail image

Varejo

Automatize as filas do caixa com reconhecimento de produtos ou até mesmo crie experiências de compras autônomas em que os modelos vinculam os clientes aos itens que eles escolhem e colocam em suas sacolas. Use mecanismos de recomendação de produtos para oferecer alternativas, seja on-line ou na loja.

Manufacturing  Gears

Fabricação

Use modelos de visão computacional para monitorar a qualidade de produtos fabricados, de itens alimentícios até mesmo de placas de circuito impresso. Alimente dados de telemetria em mecanismos de recomendação para sugerir manutenção proativa: As unidades de disco estão prestes a falhar? O motor está usando muito óleo?

Top view of cardiologist doctor medical healthcare desk

Saúde

Detecte anomalias, incluindo fraturas e tumores, com modelos de visão computacional. Use os mesmos modelos em pesquisa para avaliar o crescimento e a proliferação celular in vitro.

Big data analytics AI technology

Automação de serviços

Quando TI e cliente se encontram, o processamento de linguagem natural pode ajudar na tomada de decisões com base em solicitações faladas, e os mecanismos de recomendação podem ajudar a direcionar os clientes a encontrar soluções satisfatórias e alternativas de produtos.

A escolha ideal para cargas de trabalho de AI Inference empresarial

Sejam implantados apenas como CPU ou usados como host para GPUs executando modelos maiores, os processadores AMD EPYC™ Série 9004 foram projetados com as mais recentes tecnologias de padrões abertos para acelerar cargas de trabalho de AI Inference empresarial.

Projetado para AI Inference

Até 128 núcleos AMD "Zen 4" com suporte para instruções do AVX-512 para oferecer ótimo paralelismo a cargas de trabalho de AI Inference, reduzindo a necessidade de aceleração por GPU.

Eficiência de energia excepcional: os processadores AMD EPYC estão presentes nos servidores mais eficientes em termos de energia, oferecendo desempenho excepcional e ajudando na redução dos custos com energia.1

Processamento rápido e E/S: aumento geracional de 14% nas instruções por ciclo do clock, memória DDR5 e E/S PCIe® Gen 5 para processamento rápido de dados.2

AMD EPYC™ 9004 processor

Otimizações de software AMD para AI Inference

Suporte para estruturas: a AMD oferece suporte para as estruturas de IA mais populares, incluindo TensorFlow, PyTorch e ONNX Runtime, abrangendo diversos casos de uso, como classificação de imagens e mecanismos de recomendação.

Código aberto e compatibilidade: as otimizações são integradas em estruturas populares que oferecem ampla compatibilidade e familiaridade com upstream de código aberto.  Além disso, a AMD está trabalhando com a Hugging Face para possibilitar modelos de código aberto direto da produção com o ZenDNN.

Plug-ins ZenDNN: esses plug-ins aceleram as cargas de trabalho de AI Inference ao otimizar operadores, aproveitar microkernels e implementar multithreading eficiente em núcleos AMD EPYC.

Ampliar imagem
AMD Software Optimizations Diagram

A segurança dos dados é ainda mais importante na era da IA

À medida que o uso de digitalização, computação na nuvem, IA e outras tecnologias emergentes fomentam o crescimento dos dados, a necessidade de implementar medidas de segurança avançadas se torna ainda mais urgente. Essa maior necessidade por segurança é amplificada ainda mais pela ênfase global em regulamentos de privacidade e penalidades severas por violações, o que destaca o valor incomparável dos dados em meio ao aumento dos riscos de segurança.

Incorporado ao nível de silício, o AMD Infinity Guard oferece os recursos avançados necessários para ajudar na defesa contra ameaças internas e externas e manter seus dados protegidos.3

Cyber security illustration

Os servidores baseados em processador AMD EPYC™ 9004 e as instâncias de nuvem possibilitam soluções rápidas e eficientes compatíveis com IA perto de seus clientes e dados.

 

Modelos de carga de trabalho de IA pequenos/médios

Servidores 2P executando Llama2-7B CHAT-HF e 13B CHAT-HF LLM⁴ (tokens relativos/segundo)
AMD EPYC™ 9654
1,36x
Xeon® Platinum® 8480+
1,0x
Servidores 2P executando Phi-3 Mini (4K)⁵ (tokens relativos/segundo)
AMD EPYC™ 9654
1,24x
Xeon® Platinum® 8592+
1,0x
Instância da AWS executando o DLRMv2 com precisão Int8⁶
EPYC de 4ª geração (HPC7a.96xl)
~1,44x
Xeon de 4ª geração (M7i.48xl)
1,0x
Instância da AWS executando MiniLM com PyTorch e o mecanismo Neural Magic Deepsparse com precisão FP32 ⁷
EPYC de 4ª geração (m7a.48xl)
~1,78x
Xeon de 4ª geração (M7i.48xl)
1,0x
Instância da AWS executando Llama2-7B com precisão BF16 ⁸
EPYC de 4ª geração (m7a.8xl)
~1,19x
Xeon de 4ª geração (M7i.8xl)
1,0x

Modelos de carga de trabalho de ML clássica

Servidores 2P executando Clustering FAISS⁹ (Clustering/segundo)
AMD EPYC™ 9654
Até ~2,0x
Xeon® Platinum® 8592+
1,0x
Servidores 2P executando XGBoost com explosão da partícula Bóson de Higgs¹⁰ (Produtividade)
AMD EPYC™ 9654
Até ~1,7x
Xeon® Platinum® 8592+
1,0x
Servidores 2P que executam classificação em florestas de decisão aleatórias (produtividade do SciKit-Learning RandomForest airline_ohe)¹¹
AMD EPYC™ 9654
Até ~1,36x
Xeon® Platinum® 8592+
1,0x
Servidores 2P executando inferência de segmentação OpenVINO™ Road¹² (quadros/seg. por W da CPU)
AMD EPYC™ 9754
Até ~2,4x
Xeon® Platinum® 8592+
1,0x
Servidores 2P executando TPCx-AI a SF30¹³ (produtividade/min.)
AMD EPYC™ 9654
Até ~1,65x
Xeon® Platinum® 8592+
1,0x

Recursos

Resumos da IA empresarial do AMD EPYC

Encontre a documentação da AMD e de parceiros descrevendo IA e inovação de aprendizado de máquina

Biblioteca AMD ZenDNN

Desempenho avançado de aprendizagem profunda de código aberto em processadores AMD EPYC.

Podcasts

Ouça os principais especialistas da AMD e do setor analisam os tópicos mais recentes sobre servidores, computação na nuvem, IA, HPC e muito mais.

Notas de rodapé
  1. EPYC-028D: SPECpower_ssj® 2008, SPECrate®2017_int_energy_base e SPECrate®2017_fp_energy_base com base nos resultados publicados no site da SPEC em 21/02/2024. Resultados baseados no desempenho de energia do servidor/desempenho de energia do servidor e de armazenamento (PPKW) do VMmark®, publicados em https://www.vmware.com/products/vmmark/results3x.1.html?sort=score. As primeiras 105 publicações classificadas do SPECpower_ssj®2008 com os resultados ssj_ops/W de eficiência geral mais altos foram de processadores AMD EPYC. Para o SPECrate®2017 Integer (base de energia), as CPUs AMD EPYC equipam as primeiras 8 pontuações W de desempenho/sistema SPECrate®2017_int_energy_base. Para o SPECrate®2017 Floating Point (base de energia), as CPUs AMD EPYC equipam as primeiras 12 pontuações W de desempenho/sistema SPECrate®2017_fp_energy_base. Para o desempenho de energia de servidor (PPKW) do VMmark®, elas têm os cinco melhores resultados de par combinado de dois e quatro soquetes, superando todos os outros resultados de soquete, e para o desempenho de energia do servidor e de armazenamento (PPKW) do VMmark®, elas têm a maior pontuação geral. Acesse https://www.amd.com/en/claims/epyc4#faq-EPYC-028D para ver a lista completa. Para mais informações sobre as metas de sustentabilidade da AMD, acesse https://www.amd.com/en/corporate/corporate-responsibility/data-center-sustainability.html. Mais informações sobre SPEC® estão disponíveis em http://www.spec.org. SPEC, SPECrate e SPECpower são marcas registradas da Standard Performance Evaluation Corporation. VMmark é uma marca registrada da VMware nos EUA ou em outros países.
  2. EPYC-038: Com base em testes internos da AMD de 19/09/2022, melhoria do desempenho da média geométrica na mesma frequência fixa em uma CPU AMD EPYC™ 9554 da 4ª geração em comparação com uma CPU AMD EPYC™ 7763 da 3ª geração usando um conjunto selecionado de cargas de trabalho (33), incluindo est. SPECrate®2017_int_base, est. SPECrate®2017_fp_base e cargas de trabalho de servidor representativas. SPEC® e SPECrate® são marcas registradas da Standard Performance Evaluation Corporation. Saiba mais em spec.org.
  3. Os recursos do AMD Infinity Guard  GD-183A variam de acordo com as gerações e/ou séries de processadores EPYC™. Para que funcionem, os recursos de segurança do Infinity Guard devem ser habilitados pelos OEMs do servidor e/ou pelos provedores de serviços em nuvem. Entre em contato com seu OEM ou fornecedor para confirmar o suporte para esses recursos. Saiba mais sobre o Infinity Guard em https://www.amd.com/pt/technologies/infinity-guard
  4. SP5-222: Reivindicação de carga de trabalho Llama2 tokens/seg. com base em testes internos da AMD de 01/12/2023. Configurações do servidor 2P: 2P EPYC 9654 (96 núcleos/192 threads), BIOS AMI RTI1001C (NNPS=1, Power Determinism, SMT=OFF), Memória: 1,5 TB (24x DDR5-4800 de 64 GB), Armazenamento: NVMe de 3,2 T x 5 e NVMe de 1 T, SO: Ubuntu 22.04.2 LTS (Linux 5.15.0-84-generic), Software: Python 3.9.18, conda 4.12.0, huggingface-hub 0.17.3, intel-openmp 2023.2.0, mkl 2023.2.0, numpy 1.26.1, sentencepiece 0.1.99, tokenizers 0.14.1 torch 2.1.0+cpu, tpp-pytorch-extension 0.0.1, transformers 4.35.0, executando 24 instâncias com pontuação de média de 27,24 Token/seg. (Llama2-13B-CHAT-HF, tamanho do token de entrada: 8, bfloat16) e uma média de até 52,89 Token/seg. (Llama2-7B-CHAT-HF, tamanho de entrada: 8, bfloat16), tem 1,36x mais desempenho em relação a 2P Xeon Platinum 8480+ (56 núcleos/112 threads), BIOS ESE110Q-1.10 (Profile=Maximum Performance, HT=OFF), 1 TB (16 x DDR5-4800 de 64 GB), Armazenamento: NVMe de 3,2 TB x 4, OS: Ubuntu 22.04.3 LTS (Linux 5.15.0-88-generic), Software: Python 3.9.18, conda 4.12.0, huggingface-hub 0.17.3, intel-openmp 2023.2.0, mkl 2023.2.0, numpy 1.26.1, sentencepiece 0.1.99, tokenizers 0.14.1 torch 2.1.0+cpu, tpp-pytorch-extension 0.0.1, transformers 4.35.0, executando 14 instâncias com pontuação de média de 20,08 Token/seg. (Llama2-13B-CHAT-HF, tamanho do token de entrada: 8, bfloat16) e uma média de até 38,98 token/seg. (Llama2-7B-CHAT-HF, tamanho do token entrada: 8, bfloat16). Os resultados podem variar devido a fatores como configuração do sistema, versões de software e configurações do BIOS.
  5. TBD "SP5-289: Resultados da produtividade do Phi-3-mini com base nos testes internos da AMD de 10/06/2024.
    Configurações do Phi-3 mini: instância única, IPEX 2.3.0, BF16, tamanho do lote 1, token de entrada 16, token de saída 32.
    Configurações do servidor:
    2P EPYC 9654 (96 núcleos/192 threads), Lenovo ThinkSystem SR665 V3, (SMT=off, NPS=1, Power Determinism, BIOS 1.56), 1,5 TB (24x DDR5-5600 de 64 GB executados a 4.800 MT/s), SSD de 3,2 TB, Ubuntu® 22.04.4 LTS.
    2P Xeon    Platinum 8592+ (64 núcleos/128 threads), Lenovo ThinkSystem SR650 V3 (HT=off, NPS-1, Turbo Enabled, Profile=Maximum Performance, BIOS ESE122V-3.10), 1 TB (16x DDR5-4800 de 64 GB), NVMe de 3.2 TB, Ubuntu 22.04.4 LTS, AMX ativado.
    Resultados, Phi-3 mini 4K:
                   Pontuação média     relativa ao EMR
    Intel 8592+         12.63    1.00
    AMD EPYC 9654                15.68    1.241
    Resultados, Phi-3 mini 128K
                   Pontuação média     relativa ao EMR
    Intel 8592+         13.92    1
    AMD EPYC 9654                15.21    1.093
  6. SP5C-065: Pontuações médias do AWS HPC7a.96xlarge e comparação de economia do Cloud OpEx em relação ao M7i. 48xl executando um modelo de recomendação de aprendizagem profunda (dlrm-v2.99) com tamanho de lote de 2.000 com precisão Int8 com a biblioteca OneDNN com extensão IPEX usando preços sob demanda do Linux® praticados na Costa Leste dos EUA (Ohio) em 11/06/2024 do M7i. 48xl: US$ 9,6768/h HPC7a.96xlarge: US$ 7,20/h Definição de preço da AWS: https://aws.amazon.com/ec2/pricing/on-demand/
    Os resultados de desempenho da nuvem apresentados baseiam-se na data de teste na configuração. Os resultados podem variar devido a alterações na configuração subjacente e outras condições, como o posicionamento da VM e seus recursos, otimizações pelo provedor de serviços de nuvem, regiões de nuvem acessadas, colocatários e outros tipos de cargas de trabalho exercidas ao mesmo tempo no sistema.
  7. SP5C-070: Pontuação média do AWS m7a.48xl e comparação de economia do Cloud OpEx com o m7i.48xl executando o modelo all-MiniLM-L6-v2 do HuggingFace no PyTorch e no mecanismo Neural Magic Deepsparse com 24 execuções paralelas e tamanho do lote = 1, tamanho do token de entrada = 512, tamanho do token de saída = 128 com precisão FP32 usando preços sob demanda do Linux® praticados na Costa Leste dos EUA (Ohio) em 15/07/2024 do m7i.48xl: US$ 9,6768/h  m7a.48xl: US$ 11,12832/h
    Definição de preço da AWS: https://aws.amazon.com/ec2/pricing/on-demand/
    Os resultados de desempenho da nuvem apresentados baseiam-se na data de teste na configuração. Os resultados podem variar devido a alterações na configuração subjacente e outras condições, como o posicionamento da VM e seus recursos, otimizações pelo provedor de serviços de nuvem, regiões de nuvem acessadas, colocatários e outros tipos de cargas de trabalho exercidas ao mesmo tempo no sistema
  8. SP5C-071: Pontuação média do AWS M7a.8xl e comparação de economia do Cloud OpEx com o m7i.8xl executando o modelo Llama2 com parâmetros 7B com precisão BF16 em uma única instância na biblioteca Intel TPP com tamanho de lote = 4, tamanho do token de entrada = 2016, tamanho do token de saída = 256.
    Os resultados de desempenho da nuvem apresentados baseiam-se na data de teste na configuração. Os resultados podem variar devido a alterações na configuração subjacente e outras condições, como o posicionamento da VM e seus recursos, otimizações pelo provedor de serviços de nuvem, regiões de nuvem acessadas, colocatários e outros tipos de cargas de trabalho exercidas ao mesmo tempo no sistema.
  9. SP5C-060: Pontuação média do AWS m7a.4xl e comparação de economia do Cloud OpEx com o M7i.4xl executando o modelo BERT-Large- pruned80_quant-none.vnni com precisão FP32 tamanhos de lote = 1, 128, 256, tamanho do token de entrada = 512, tamanho do token de saída = 512 usando preços sob demanda do Linux® praticados na Costa Leste dos EUA (Ohio) em 11/06/2024 do M7i.4xl: US$ 0,8064/h M7a.4xl: US$ 0,92736/h Os resultados de desempenho da nuvem apresentados baseiam-se na data de teste na configuração. Os resultados podem variar devido a alterações na configuração subjacente e outras condições, como o posicionamento da VM e seus recursos, otimizações pelo provedor de serviços de nuvem, regiões de nuvem acessadas, colocatários e outros tipos de cargas de trabalho exercidas ao mesmo tempo no sistema.
  10. SP5-185A: Reivindicação de carga de trabalho de produtividade de 1000 da FAISS v1.7.4 com base em testes internos da AMD em 19/04/2024. Configurações do servidor 2P: 2P EPYC 9654 (96C/96T), BIOS 1006C (SMT=off, NPS=1, Power Determinism), 1.5 TB (24x 64 GB DDR5-4800), Samsung MZQL21T9HCJR-00A07 1.92TB, Ubuntu® 22.04.3 LTS rodando 8 instâncias/24 núcleos/instância com produtividade média de 39.6, é 2.04x o desempenho do 2P Xeon Platinum 8592+ (64C/64T), BIOS 1.4.4 (HT=off, Profile=Maximum Performance), 1 TB (16x 64 GB DDR5-4800), Intel SSDPF2KE032T1O 3.2TB NVMe, Ubuntu 22.04.3 LTS rodando 8 instâncias/16 núcleos/instância com produtividade mediana de 19.4. Os resultados podem variar devido a fatores como configuração do sistema, versões de software e configurações do BIOS.
  11. SP5-251: Reivindicação de carga de trabalho de produtividade do XGBoost 2.0.3 com base em testes internos da AMD de 19/04/2024. Configurações do servidor 2P: 2P EPYC 9654 (96 núcleos/192 threads), BIOS 1006C (SMT=off, NPS=1, Power Determinism), 1,5 TB (24x DDR5-4800 de 64 GB), Samsung MZQL21T9HCJR-00A07 de 1.92 TB, Ubuntu 22.04.3 LTS com pontuação de produtividade média de 203 Airline (executando 16 instâncias/12 núcleos/instância) e produtividade média de 2.057 Higgs (executando 32 instâncias/6 núcleos/instância) para obter 1,38x e 1,71x mais desempenho, respectivamente, em relação ao 2P Xeon Platinum 8592+ (64 núcleos/128 threads), BIOS 1.4.4 (HT=off, Profile=Maximum Performance), 1 TB (16x DDR5-4800 de 64 GB), Intel SSDPF2KE032T1O NVMe de 3,2 TB, Ubuntu 22.04.3 LTS executando 8 instâncias/16 núcleos/instância com pontuação de produtividade média de 147 Airline e 4 instâncias/32 núcleos/instâncias com pontuação de produtividade média de 1.200 Higgs. Os resultados podem variar devido a fatores como configuração do sistema, versões de software e configurações do BIOS.
  12. SP5-184A: Reivindicação de carga de trabalho de produtividade do conjunto de dados "airline_ohe" usando SciKit-Learning Random Forest v2023.2, baseada em testes internos da AMD realizados em 19 de abril de 2024. Configurações do servidor 2P: A configuração do servidor 2P EPYC 9654 (96C/96T), com BIOS 1006C (SMT desligado, NPS=1, Power Determinism), 1.5 TB (24x 64GB DDR5-4800), 2x Samsung MZQL21T9HCJR-00A07 de 1.7 TB, executando Ubuntu® 22.04.3 LTS com 12 instâncias/16 núcleos por instância, alcança uma produtividade em média de 166.8. Isso representa um desempenho 1.36 vezes superior ao de um servidor 2P Xeon Platinum 8592+ (64C/64T), com BIOS 1.4.4 (HT desligado, Profile=Maximum Performance), 1 TB de memória (16x 64 GB DDR5-4800), Intel SSDPF2KE032T1O de 3.2TB NVMe, executando Ubuntu 22.04.3 LTS com 8 instâncias/16 núcleos por instância e uma produtividade em média de 123.1. Os resultados podem variar devido a fatores como configuração do sistema, versões de software e configurações do BIOS.
  13. SP5-252: Comparação de FPS do OpenVINO 2023.2.dev em testes de terceiros com base na revisão de Phoronix https://www.phoronix.com/review/intel-xeon-platinum-8592/9 em de 14/12/2023 de testes selecionados do OpenVINO: Detecção de Veículos FP16, Detecção de Pessoas FP16, Detecção de Pessoas, Veículos e Bicicletas FP16, Segmentação de Estradas ADAS FP16 e Detecção Facial no Varejo FP16. A Segmentação de Estrada ADAS FP16 obteve uma melhoria máxima de 2,36x. Os testes não são confirmados de forma independente pela AMD. Os resultados podem variar com base na configuração do sistema e no modo de determinismo utilizado (Determinismo de energia utilizado). OpenVino é uma marca registrada da Intel Corporation ou de suas subsidiárias.
  14. SP5-051A: Comparação de carga de trabalho derivada TPCx-AI SF30 com base em testes internos da AMD executando várias instâncias de VM em 13/04/2024. O teste de produtividade de IA de ponta a ponta agregado é derivado da avaliação de desempenho TPCx-AI e, como tal, não é comparável aos resultados publicados do TPCx-AI, já que os resultados de teste de produtividade de IA de ponta a ponta não estão em conformidade com a especificação do TPCx-AI. Configuração do sistema AMD: Processadores: 2 AMD EPYC 9654; Frequências: 2,4 GHz | 3,7 GHz; Núcleos: 96 núcleos por soquete (1 domínio NUMA por soquete); Cache L3: 384 MB/soquete (768 MB total); Memória: 1,5 TB; (24) DIMMs DDR5-5600 de 64 GB com fileira dupla, 1DPC (plataforma com suporte para até 4.800 MHz); NIC: 2 Mellanox CX-5 (MT28800) de 100 GbE; Armazenamento: Samsung MO003200KYDNC U.3 NVMe de 3,2 TB; BIOS: 1,56; Configurações do BIOS: SMT=ON, Determinism=Power, NPS=1, PPL=400W, Turbo Boost=Enabled; SO: Ubuntu® 22.04.3 LTS; Configuração de teste: 6 instâncias, 64 vCPUs/instância, 2.663 casos de uso agregados de IA/min vs. Configuração do sistema Intel: Processadores: 2 Intel® Xeon® Platinum 8592+; Frequências: 1,9 GHz | 3,9 GHz; Núcleos: 64 núcleos por soquete (1 domínio NUMA por soquete); Cache L3: 320 MB/soquete (640 MB total); Memória: 1 TB, (16) DIMMs DDR5-5600 de 64 GB com fileira dupla, 1DPC; NIC: 4 PCIe Gigabit Ethernet Broadcom NetXtreme BCM5719 de 1 GbE; Armazenamento: KIOXIA KCMYXRUG3T84 NVMe de 3,84 TB; BIOS: ESE124B-3.11; Configurações do BIOS: Hyperthreading=Enabled, Turbo boost=Enabled, SNC=Disabled; SO: Ubuntu® 22.04.3 LTS; Configuração de teste: 4 instâncias, 64 vCPUs/instância, 1.607 casos de uso de IA agregada/min. Os resultados podem variar devido a fatores como configuração do sistema, versões de software e configurações do BIOS.  TPC, TPC Benchmark e a TPC-C são marcas comerciais do Transaction Processing Performance Council.