Webinar destacado

Descubre cómo los procesadores AMD EPYC™ Serie 9004 te permiten implementar el procesamiento de IA basado en CPU que es eficiente para modelos pequeños de IA, muchas cargas de trabajo clásicas de ML e inferencia, además de cargas de trabajo de procesamiento tradicionales que aumenta la IA.

Abstract connected dots and lines

Cartera de productos líderes para abordar las cargas de trabajo de inferencia de IA empresarial

La inferencia de IA utiliza un modelo de IA entrenado para hacer predicciones sobre nuevos datos.  AMD ofrece una gama de soluciones para la inferencia de IA según el tamaño del modelo y los requisitos de la aplicación.  Las CPU AMD EPYC™ se destacan por ofrecer una solución para modelos de IA pequeños a medianos y cargas de trabajo donde la proximidad a los datos es importante. Las GPU AMD Instinct™ son excelentes para los modelos grandes y las implementaciones de IA dedicadas que exigen un rendimiento y una escala muy altos. Ambas ofrecen un rendimiento y una eficiencia sobresalientes, lo que te permite elegir la solución adecuada para tus necesidades.

Tamaño del modelo pequeño

Tamaño del modelo   Tipo Ventajas Desventajas Casos de uso típicos
Pequeño   Clásico
  • Inferencia más rápida
  • Requisitos más bajos de recursos
  • Menor exactitud
  • Tareas menos complejas
  • Reconocimiento de imágenes (básico)
  • Análisis de opiniones
  • Detección de spam
Generativo
  • Generación de contenido creativo (por ejemplo, música, arte)
  • Personalización
  • Control limitado sobre la salida
  • Potencial de sesgo
  • Generación de texto (corto)
  • Chatbots

Tamaño del modelo: Medio

Tamaño del modelo   Tipo Ventajas Desventajas Casos de uso típicos
Medio Clásico
  • Equilibrio entre velocidad y precisión
  • Adecuado para tareas de complejidad moderada
  • Puede requerir más datos de capacitación
  • Menos eficiente para conjuntos de datos muy grandes
  • Detección de objetos en videos
  • Traducción automática
  • Chatbots de servicio al cliente
Predictivo
  • Predicciones precisas para varias tareas
  • Escalable para conjuntos de datos más grandes
  • Puede ser caro desde el punto de vista computacional
  • Requiere una preparación cuidadosa de los datos
  • Detección de fraude
  • Evaluación de riesgos
  • Pronóstico de ventas

Tamaño del modelo: Grande

Tamaño del modelo   Tipo Ventajas Desventajas Casos de uso típicos
Grande   Generativo
  • Generación de contenido altamente realista y complejo
  • Comprensión avanzada del lenguaje
  • Uso muy intensivo de recursos
  • Alto riesgo de sesgo e inquietudes éticas
  • Generación de texto (complejo)
  • Generación de imagen y video
  • Diseño de contenido creativo
Clásico
  • Alto nivel de precisión para tareas complejas
  • Permite manejar conjuntos de datos grandes y diversos
  • Uso extremadamente intensivo de recursos
  • Difícil de interpretar y explicar
  • Diagnóstico médico
  • Automóviles autodirigidos
  • Reconocimiento facial
Predictivo
  • Predicciones con alto nivel de precisión cuando se usan grandes conjuntos de datos
  • Maneja de relaciones y patrones complejos
  • Caro de entrenar y ejecutar
  • Requiere una cantidad extensa de datos y experiencia
  • Recomendaciones personalizadas
  • Análisis de mercado financiero
  • Descubrimiento científico

Aplicaciones e industrias

Los modelos de IA integrados dentro de la visión artificial, el procesamiento de lenguaje natural y los sistemas de recomendación afectaron significativamente a las empresas de varios sectores de la industria. Estos modelos ayudan a las compañías a reconocer objetos, clasificar anomalías, comprender palabras escritas y habladas y hacer recomendaciones. Mediante la aceleración del desarrollo de estos modelos, las empresas pueden obtener los beneficios, independientemente de la industria a la que pertenecen.

Automated Driving Illustration

Industria automotriz

Los modelos de visión artificial ayudan a impulsar automóviles autodirigidos y también ayudan a reconocer los carteles, los peatones y otros vehículos que se deben evitar. Los modelos de procesamiento del lenguaje natural pueden ayudar a reconocer los comandos hablados de la telemática en el auto.

data image

Servicios financieros

La detección de anomalías alimentadas por IA ayuda a detener el fraude con tarjeta de crédito, mientras que los modelos de visión artificial están atentos a documentos sospechosos, incluidos los cheques de clientes.

abstract retail image

Venta minorista

Automatiza las cajas registradoras mediante el reconocimiento de productos o incluso crea experiencias de compra autónomas donde los modelos vinculan a los clientes con los artículos que eligen y colocan en sus bolsos. Utiliza motores de recomendación de productos para ofrecer alternativas, ya sea en línea o en la tienda.

Manufacturing  Gears

Fabricación

Utiliza modelos de visión artificial para monitorear la calidad de los productos fabricados, desde alimentos hasta placas de circuitos impresos. Introduce los datos de telemetría en los motores de recomendación para sugerir un mantenimiento proactivo: ¿Están a punto de fallar las unidades de disco? ¿El motor utiliza demasiado aceite?

Top view of cardiologist doctor medical healthcare desk

Medicina

Detecta anomalías, incluidas fracturas y tumores con modelos de visión artificial. Utiliza los mismos modelos en investigación para evaluar el crecimiento y la proliferación celular in vitro.

Big data analytics AI technology

Automatización de servicios

Cuando el equipo de TI se reúnen con los clientes, el procesamiento del lenguaje natural puede ayudar a tomar medidas en función de las solicitudes, y los motores de recomendación pueden ayudar a orientar a los clientes hacia soluciones satisfactorias y alternativas de productos.

La opción ideal para cargas de trabajo de inferencia de IA empresarial

Ya sea que se implementen como CPU solamente o se utilicen como host para las GPU que ejecutan modelos más grandes, los procesadores AMD EPYC™ Serie 9004 están diseñados con las tecnologías estándar abiertas más recientes para acelerar las cargas de trabajo de inferencia de IA empresarial.

Diseñado para inferencia de IA

Hasta 128 núcleos AMD “Zen 4” compatibles con instrucciones AVX-512 que ofrecen un gran paralelismo para cargas de trabajo de inferencia de IA, lo que reduce la necesidad de aceleración de GPU.

Ahorro de energía excepcional: Los procesadores AMD EPYC potencian los servidores con el mejor bajo consumo energético, lo que brinda un rendimiento excepcional y permite reducir el gasto en energía1.

Procesamiento rápido y E/S: Aumento generacional del 14 % en las instrucciones por ciclo de reloj, memoria DDR5 y E/S PCIe® de 5.ª generación para un procesamiento rápido de datos2.

AMD EPYC™ 9004 processor

Optimizaciones de software AMD para inferencia de IA

Compatibilidad del marco: AMD es compatible con los marcos de IA más populares, incluidos TensorFlow, PyTorch y ONNX Runtime, que abarcan diversos casos de uso, como la clasificación de imágenes y los motores de recomendación.

Código abierto y compatibilidad: Las optimizaciones están integradas en marcos populares que ofrecen una amplia compatibilidad y una facilidad ascendente de código abierto.  Además, AMD está trabajando con Hugging Face para permitir que sus modelos de código abierto con ZenDNN.

Complementos ZenDNN: Estos complementos aceleran las cargas de trabajo de inferencia de IA mediante la optimización de operadores, el aprovechamiento de los micronúcleos y la implementación de subprocesos múltiples eficientes en núcleos AMD EPYC.

Zoom de imagen
AMD Software Optimizations Diagram

La seguridad de los datos es aún más importante en la era de la IA

A medida que el uso de digitalización, computación en la nube, IA y otras tecnologías emergentes impulsan el crecimiento de los datos, la necesidad de medidas de seguridad avanzadas se vuelve aún más apremiante. Esta mayor necesidad de seguridad se ve amplificada por el mayor énfasis global en las regulaciones de privacidad y las graves sanciones por infracciones, lo que destaca el valor incomparable de los datos en medio del aumento de los riesgos de seguridad.

AMD Infinity Guard es tecnología que viene integrada en el chip y ofrece las capacidades avanzadas necesarias para defenderse ante ataques internos y externos, y a mantener los datos seguros3.

Cyber security illustration

Los servidores y las instancias en la nube basados en procesadores AMD EPYC™ 9004 proporcionar soluciones rápidas y eficientes con IA cerca de sus clientes y datos.

 

Modelos de carga de trabajo de IA pequeños/medianos

Servidores 2P que ejecutan Llama2-7B CHAT-HF y 13B CHAT-HF LLM⁴ (tokens relativos/segundo)
AMD EPYC™ 9654
1,36 veces
Xeon® Platinum® 8480+
1,0 veces
Servidores 2P que ejecutan Phi-3 Mini (4K)⁵ (tokens/segundos relativos)
AMD EPYC™ 9654
1,24 veces
Xeon® Platinum® 8592+
1,0 veces
Instancia de AWS que ejecuta DLRMv2 en precisión Int8⁶
EPYC de 4.ª generación (HPC7a.96xl)
~1,44x
Xeon de 4.ª generación (M7i.48xl)
1,0 veces
Instancia de AWS con MiniLM con PyTorch y motor DeepSparse de Neural Magic en precisión FP32⁷
EPYC de 4.ª generación (m7a.48xl)
~1,78 veces
Xeon de 4.ª generación (M7i.48xl)
1,0 veces
Instancia de AWS que ejecuta Llama2-7B en precisión BF16⁸
EPYC de 4.ª generación (m7a.8xl)
~1,19 veces
Xeon de 4.ª generación (M7i.8xl)
1,0 veces

Modelos clásicos de carga de trabajo de ML

Servidores 2P que ejecutan Clustering FAISS⁹ (agrupación en clústeres/segundo)
AMD EPYC™ 9654
Hasta ~2,0 veces
Xeon® Platinum® 8592+
1,0 veces
Servidores 2P que ejecutan XGBoost con explosión de partículas del bosón de Higgs¹⁰ (rendimiento)
AMD EPYC™ 9654
Hasta 1,7 veces
Xeon® Platinum® 8592+
1,0 veces
Servidores 2P que ejecutan clasificación en bosques de decisión aleatorios (rendimiento SciKit-Learning RandomForest airline_ohe)¹¹
AMD EPYC™ 9654
Hasta ~1,36 veces
Xeon® Platinum® 8592+
1,0 veces
Servidores 2P que ejecutan la inferencia de segmentación de caminos¹² con OpenVINO™ (fotogramas/segundo por watts de CPU).
AMD EPYC™ 9754
Hasta 2,4 veces
Xeon® Platinum® 8592+
1,0 veces
Servidores 2P que ejecutan TPCx-AI a SF30¹³ (rendimiento/min)
AMD EPYC™ 9654
Hasta ~1,65 veces
Xeon® Platinum® 8592+
1,0 veces

Recursos

Informes sobre IA empresarial de AMD EPYC

Encuentra documentación sobre AMD y sus socios que describe la IA y la innovación en el aprendizaje automático

Biblioteca AMD ZenDNN

Rendimiento de aprendizaje profundo de código abierto mejorado en procesadores AMD EPYC.

Podcasts

Escucha a los tecnólogos líderes de AMD y la industria que analizan los temas de tendencia más recientes sobre servidores, computación en la nube, IA, HPC y más.

Notas al pie
  1. EPYC-028D: SPECpower_ssj® 2008, SPECrate®2017_int_energy_base y SPECrate®2017_fp_energy_base basadas en resultados publicados en el sitio web de SPEC al 21/2/24. Resultados basados en el rendimiento de potencia del servidor y el almacenamiento (PPKW)/rendimiento de potencia del servidor VMmark® publicados en https://www.vmware.com/products/vmmark/results3x.1.html?sort=score. Las 105 publicaciones con los resultados de eficiencia general más altos ssj_ops/vatio de SPECpower_ssj®2008 correspondían todos a procesadores que contaban con tecnología AMD EPYC. Las CPU con AMD EPYC obtuvieron los primeros 8 mejores resultados en las puntuaciones de rendimiento/sistema W en SPECrate®2017_int_energy_base en el SPECrate®2017 entero (Energy Base) Las CPU con AMD EPYC obtuvieron los primeros 12 resultados en las puntuaciones de rendimiento/sistema W en SPECrate®2017_fp_energy_base en el SPECrate®2017 punto flotante (Energy Base). En el rendimiento de potencia del servidor (PPKW) VMmark®, obtuvieron los mejores cinco resultados para pares coincidentes de dos y cuatro sockets, lo que superó todos los demás resultados de sockets, mientras que en el rendimiento de potencia del servidor y almacenamiento (PPKW) de VMmark®, obtuvieron la mejor puntuación general. Consulta https://www.amd.com/en/claims/epyc4#faq-EPYC-028D para ver la lista completa. Para obtener más información sobre los objetivos de sustentabilidad de AMD, visita https://www.amd.com/en/corporate/corporate-responsibility/data-center-sustainability.html Encuentra más información sobre SPEC® en http://www.spec.org. SPEC, SPECrate y SPECpower son marcas comerciales registradas de Standard Performance Evaluation Corporation. VMmark es una marca comercial registrada de VMware en los Estados Unidos y otros países.
  2. EPYC-038: basado en pruebas internas de AMD realizadas al 19/9/2022, mejora de rendimiento de media geométrica en la misma frecuencia fija al comparar una CPU AMD EPYC™ 9554 de 4.ª generación con una AMD EPYC™ 7763 de 3.ª generación mediante un grupo de cargas de trabajo seleccionadas (33), incluidas SPECrate®2017_int_base estimada, SPECrate®2017_fp_base estimada y cargas de trabajo de servidor representativas. SPEC® y SPECrate® son marcas comerciales registradas de Standard Performance Evaluation Corporation. Obtén más información en spec.org.
  3. GD-183A: las funciones de AMD Infinity Guard varían según las generaciones o las series de procesadores EPYC™ Los fabricantes de equipos originales (OEM) de servidores o proveedores de servicios en la nube deben activar las funciones de seguridad de Infinity Guard para poder usarlas. Comunícate con tu OEM o proveedor para confirmar la disponibilidad de estas funciones. Obtén más información sobre Infinity Guard en https://www.amd.com/en/technologies/infinity-guard
  4. SP5-222: la afirmación de rendimiento de tokens/seg para la carga de trabajo de Llama2 se basa en pruebas internas de AMD realizadas al 1/12/23 Configuraciones de servidor 2P: EPYC 9654 de 2P (96 núcleos/192 subprocesos), BIOS AMI RTI1001C (NPS = 1, determinismo de potencia, SMT = apagado), memoria: 1,5 TB (24 DDR5 de 64 GB a 4800 MHz), almacenamiento: 5 NVMe de 3,2 TB + NVMe de 1 TB, SO: Ubuntu 22.04.2 LTS (Linux 5.15.0-84-Generic), software: Python 3.9.18, conda 4.12.0, huggingface-hub 0.17.3, intel-openmp 2023.2.0, mkl 2023.2.0, numpy 1.26.1, sentencepiece 0.1.99, tokenizers 0.14.1 torch 2.1.0+cpu, tpp-pytorch-extension 0.0.1, transformers 4.35.0, con ejecución de 24 instancias con una puntuación promedio de hasta 27,24 tokens/seg (Llama2-13B-CHAT-HF, tamaño del token de entrada: 8, bfloat16) y hasta un promedio de 52,89 tokens/seg (Llama2-7B-CHAT-HF, tamaño de entrada: 8, bfloat16), un rendimiento 1,36 veces mayor que el rendimiento de Xeon Platinum 8480+ de 2P (56 núcleos/112 subprocesos), BIOS ESE110Q-1.10 (Perfil = máximo rendimiento, HT = apagado), 1 TB (16 DDR5 de 64 GB a 4800 MHz), almacenamiento: 4 NVMe de 3,2 TB, SO: Ubuntu 22.04.3 LTS (Linux 5.15.0-88-Generic), software: Python 3.9.18, conda 4.12.0, huggingface-hub 0.17.3, intel-openmp 2023.2.0, mkl 2023.2.0, numpy 1.26.1, sentencepiece 0.1.99, tokenizers 0.14.1 torch 2.1.0+cpu, tpp-pytorch-extension 0.0.1, transformers 4.35.0, con ejecución de 14 instancias con una puntuación promedio de hasta 20,08 tokens/seg (Llama2-13B-CHAT-HF, tamaño del token de entrada: 8, bfloat16) y hasta un promedio de 38,98 tokens/seg (Llama2-7B-CHAT-HF, tamaño del token de entrada: 8, bfloat16). Los resultados pueden variar debido a factores como las configuraciones del sistema, las versiones de software y la configuración del BIOS.
  5. POR DETERMINAR SP5-289: resultados de rendimiento de Phi-3-mini basados en pruebas internas de AMD realizadas al 10/6/24.
    Configuraciones de Phi-3-mini: instancia única, IPEX 2.3.0, BF16, tamaño de lote 1, ficha de entrada 16, token de salida 32.
    Configuraciones del servidor:
    EPYC 9654 de 2P (96 núcleos/192 subprocesos), Lenovo ThinkSystem SR665 V3, (SMT = apagado, NPS = 1, determinismo de potencia, BIOS 1.56), 1,5 TB (24 DDR5 de 64 GB a 5600 MHz funcionando a 4800 MT/s), SSD de 3,2 TB, Ubuntu® 22.04.4 LTS.
    Xeon Platinum 8592+ de 2P (64 núcleos/128 subprocesos), Lenovo ThinkSystem SR650 V3 (HT = apagado, NPS-1, Turbo activado, perfil = rendimiento máximo, BIOS ESE122V-3.10), 1 TB (16 DDR5 a 4800 MHz de 64 GB), NVMe de 3,2 TB, Ubuntu® 22.04.4 LTS, AMX encendido.
    Resultados, Phi-3-mini 4K:
                   Puntuación media    En relación con EMR
    Intel 8592+        12,63   1,00
    AMD EPYC 9654                15,68    1,241
    Resultados, Phi-3-mini 128K
                   Puntuación media    En relación con EMR
    Intel 8592+        13,92   1
    AMD EPYC 9654                15,21    1,093
  6. SP5C-065: comparación de las puntuaciones promedio de AWS HPC7a.96xlarge y el ahorro de OpEx en la nube con M7i. Modelo de recomendación de aprendizaje profundo de 48xl (dlrm-v2.99) con tamaño de lote = 2000 en precisión Int8 con biblioteca OneDNN con extensión IPEX con precios a pedido de Linux® en el este de EE. UU. (Ohio) al 11/6/24 para M7i. 48xl: USD 9,6768/hora HPC7a.96xlarge: USD 7,20/hora Precios de AWS: https://aws.amazon.com/ec2/pricing/on-demand/
    Los resultados de rendimiento de la nube presentados se basan en la fecha de prueba en la configuración. Los resultados pueden variar por cambios en la configuración subyacente y otras condiciones, como la ubicación de la VM y sus recursos, las optimizaciones que realiza el proveedor de servicios en la nube, las regiones de la nube a las que se accede, los copropietarios y otros tipos de cargas de trabajo ejecutadas al mismo tiempo en el sistema.
  7. SP5C-070: puntuación promedio de AWS m7a.48xl y comparación de ahorros de OpEx en la nube con m7i.48xl con ejecución del modelo All-MiniLM-L6-v2 de HugingFace en PyTorch y el motor DeepSparse de Neural Magic con 24 series paralelas de token y tamaño de lote = 1, tamaño de token de entrada = 512, tamaño de salida = 128 en precisión FP32, mediante el uso de precios a pedido de Linux® en el este de EE. UU. (Ohio) al 15/7/24 para m7i.48xl: USD 9,6768/hora  m7a.48xl: USD 11,12832/hora
    Precios de AWS: https://aws.amazon.com/ec2/pricing/on-demand/
    Los resultados de rendimiento de la nube presentados se basan en la fecha de prueba en la configuración. Los resultados pueden variar por cambios en la configuración subyacente y otras condiciones, como la ubicación de la MV y sus recursos, las optimizaciones que realiza el proveedor de servicios en la nube, las regiones de la nube a las que se accede, los copropietarios y otros tipos de cargas de trabajo ejecutadas al mismo tiempo en el sistema.
  8. SP5C-071: puntuación promedio de M7a.8xl en AWS y comparación de ahorros de OpEx en la nube con m7i.8xl con ejecución del modelo Llama2 con parámetros 7B en BF16 en una sola instancia en la biblioteca Intel TPP con tamaño de lote = 4, tamaño de token de entrada = 2016, tamaño de token de salida = 256.
    Los resultados de rendimiento de la nube presentados se basan en la fecha de prueba en la configuración. Los resultados pueden variar por cambios en la configuración subyacente y otras condiciones, como la ubicación de la VM y sus recursos, las optimizaciones que realiza el proveedor de servicios en la nube, las regiones de la nube a las que se accede, los copropietarios y otros tipos de cargas de trabajo ejecutadas al mismo tiempo en el sistema.
  9. SP5C-060: puntuación promedio de m7a.4xl en AWS y comparación de ahorros de OpEx en la nube con M7i.4xl con ejecución del modelo BERT-Large- pruned80_quant-nni en FP32 con tamaño de lote = 1, 128, 256, tamaño del token de entrada = 512, tamaño del token de salida = 512 con precios a pedido de Linux® en el este de EE. UU. (Ohio) al 11/6/24 para M7i.4xl: USD 0,8064/hora M7a.4xl: USD 0,92736/hora Los resultados de rendimiento de la nube presentados se basan en la fecha de prueba en la configuración. Los resultados pueden variar por cambios en la configuración subyacente y otras condiciones, como la ubicación de la VM y sus recursos, las optimizaciones que realiza el proveedor de servicios en la nube, las regiones de la nube a las que se accede, los copropietarios y otros tipos de cargas de trabajo ejecutadas al mismo tiempo en el sistema.
  10. SP5-185A: Afirmación de carga de trabajo de rendimiento FAISS v1.7.4 1000 basada en pruebas internas de AMD realizadas al 19/4/24. Configuraciones de servidor 2P: 2P EPYC 9654 (96 núcleos/96 subprocesos), BIOS 1006C (SMT=apagado, NPS=1, determinismo de potencia), 1,5 TB (24 DDR5 de 64 GB a 4800 MHz), Samsung MZQL21T9HCJR-00A07 de 1,92 TB, Ubuntu® 22.04.3 LTS con ejecución de 8 instancias/24 núcleos/puntuación de instancia de 39,6 de rendimiento promedio que es 2,04 veces el rendimiento de un 2P Xeon Platinum 8592+ (64 núcleos/64 subprocesos), BIOS 1.4.4 (HT=apagado, Perfil=rendimiento máximo), 1 TB (16 DDR5 de 64 GB a 4800 MHz), SSD NVMe Intel SSDPF2KE032T1O de 3,2 TB, Ubuntu 22.04.3 LTS con ejecución de 8 instancias/16 núcleos/puntuación de instancia de 19,4 rendimiento promedio. Los resultados pueden variar debido a factores como las configuraciones del sistema, las versiones de software y la configuración del BIOS.
  11. SP5-251: la carga de trabajo de rendimiento de XGBoost 2.0.3 se basa en pruebas internas de AMD realizadas al 19/4/24. Configuraciones de servidor 2P: EPYC 9654 de 2P (96 núcleos/192 subprocesos), BIOS 1006C (SMT = apagado, NPS = 1, determinismo de potencia), 1,5 TB (24 DDR5 de 64 GB a 4800 MHz), Samsung MZQL21T9HCJR-00A07 de 1,92 TB, Ubuntu 22.04.3 LTS con un rendimiento promedio de 203 Airline (con ejecución de 16 instancias/12 núcleos/instancia) y 2057 Higgs (que ejecuta 32 instancias/6 núcleos/instancia) para un rendimiento promedio de 1,38 y 1,71 veces, respectivamente, de Xeon Platinum 8592+ de 2P (64 núcleos/128 subprocesos), BIOS 1.4.4 (HT =apagado, Perfil = rendimiento máximo), 1 TB (16 DDR5 de 64 GB a 4800 MHz), NVMe Intel SSDPF2KE032T1O de 3,2 TB, Ubuntu 22.04.3 LTS con ejecución de 8 instancias/16 núcleos/instancia con un rendimiento promedio de 147 Airline y 4 instancias/32 núcleos/instancia con un rendimiento promedio de 1200 Higgs. Los resultados pueden variar debido a factores como las configuraciones del sistema, las versiones de software y la configuración del BIOS.
  12. SP5-184A: Afirmación de carga de trabajo de rendimiento del conjunto de datos SciKit-Learning Random Forest v2023.2 airline_ohe basada en pruebas internas de AMD realizadas al 19/4/24. Configuraciones de servidor 2P: 2P EPYC 9654 (96 núcleos/96 subprocesos), BIOS 1006C (SMT=apagado, NPS=1, determinismo de potencia), 1,5 TB (24 DDR5 de 64 GB a 4800 MHz), 2 Samsung MZQL21T9HCJR-00A07 de 1,7 TB, Ubuntu® 22.04.3 LTS con ejecución de 12 instancias/16 núcleos/puntuación de instancia de 166,8 de rendimiento promedio que es 1,36 veces el rendimiento de un 2P Xeon Platinum 8592+ (64 núcleos/64 subprocesos), BIOS 1.4.4 (HT=apagado, Perfil=rendimiento máximo), 1 TB (16 DDR5 de 64 GB a 4800 MHz), SSD NVMe Intel SSDPF2KE032T1O de 3,2 TB, Ubuntu 22.04.3 LTS con ejecución de 8 instancias/16 núcleos/puntuación de instancia de 123,1 rendimiento promedio. Los resultados pueden variar debido a factores como las configuraciones del sistema, las versiones de software y la configuración del BIOS.
  13. SP5-252: Comparación de FPS OpenVINO 2023.2.dev de pruebas de terceros basada en la revisión de Phoronix realizada al 14/12/23 disponible en https://www.phoronix.com/review/intel-xeon-platinum-8592/9 con pruebas de OpenVINO seleccionadas: detección de vehículos FP16, detección de personas FP16, detección de bicicletas con ciclistas FP16, segmentación de caminos ADAS FP16 y detección de rostro FP16 en el comercio minorista. el aumento máximo de 2,36 veces en ADAS (FP16) para segmentación de caminos. AMD no ha verificado las pruebas de forma independiente. Los resultados variarán según la configuración del sistema y el modo de determinismo utilizado (determinismo de potencia). OpenVINO es una marca comercial de Intel Corporation o sus empresas subsidiarias.
  14. SP5-051A: comparación de la carga de trabajo derivada de TPCx-AI SF30 basada en pruebas internas de AMD con ejecución de varias instancias de VM al 13/4/24. La prueba de rendimiento de IA integral adicional se deriva la evaluación comparativa TPCx-AI y, como tal, no es comparable con los resultados publicados de TPCx-AI, ya que los resultados de la prueba de rendimiento de IA de extremo a extremo no cumplen con la especificación TPCx-AI. Configuración del sistema AMD: Procesadores: 2 AMD EPYC 9654; frecuencias: 2,4 GHz | 3,7 GHz; núcleos: 96 núcleos por socket (1 dominio NUMA por socket); caché L3: 384 MB/socket (768 MB en total); memoria: 1,5 TB (24) módulos DIMM DDR5 de 64 GB a 5600 MHz de doble rango, 1 DPC (la plataforma admite hasta 4800 MHz); NIC: 2 Mellanox CX-5 (MT28800) de 100 GbE; almacenamiento: NVMe Samsung MO003200KYDNC U.3 de 3,2 TB; BIOS: 1.56; configuración del BIOS: SMT = encendido, determinismo = potencia, NPS = 1, PPL = 400 W, Turbo Boost = activado; SO: Ubuntu® 22.04.3 LTS; configuración de prueba: 6 instancias, 64 vCPU/instancia, 2663 casos de uso de IA agregados/min en comparación con la configuración del sistema Intel: Procesadores: 2 Intel® Xeon® Platinum 8592+; frecuencias: 1,9 GHz | 3,9 GHz; núcleos: 64 núcleos por socket (1 dominio NUMA por socket); caché L3: 320 MB/socket (640 MB en total); memoria: 1 TB (16) módulos DIMM DDR5 de 64 GB a 5600 MHz de doble rango, 1 DPC; NIC: 4 puertos PCIe Ethernet Gigabit Broadcom NetXtreme BCM5719 de 1 GbE; almacenamiento: NVMe KIOXIA KCMYXRUG3T84 de 3,84 TB; BIOS: ESE124B-3.11; configuración del BIOS: Hyperthreading = activado, Turbo Boost = activado, SNC = desactivado; SO: Ubuntu® 22.04.3 LTS; configuración de prueba: 4 instancias, 64 CPU/instancia, 1607 casos de uso de IA agregados/min Los resultados pueden variar debido a factores como las configuraciones del sistema, las versiones de software y la configuración del BIOS.  TPC, TPC Benchmark y TPC-C son marcas comerciales de Transaction Processing Performance Council.