IA: Desde puntos de conexión hasta dispositivos perimetrales y la nube, gracias a AMD
La IA generativa está transformando la forma en que operan los clientes empresariales. De hecho, la IA se está convirtiendo rápidamente en parte de casi todos los procesos comerciales que respalda, desde el servicio al cliente hasta el análisis de datos, y esa integración cada vez más profunda solo va a crecer. Sin embargo, la IA es una carga de trabajo relativamente nueva, que se suma a la infraestructura existente y ejerce presión sobre las configuraciones de hardware actuales.
Si los clientes desean disfrutar de experiencias de IA y ganancias de productividad sin interrupciones de forma inmediata y a largo plazo, necesitan ayuda para desarrollar su infraestructura de TI. Aquí es donde destacan las tecnologías de AMD, ya que ofrecen a las empresas el rendimiento y la eficiencia para operar los flujos de trabajo existentes junto con las nuevas posibilidades que ofrece la IA.
Descubre el mundo de la IA con los procesadores AMD EPYC™
Los procesadores AMD EPYC™ son confiables y potencian un tercio de los servidores del mundo, y por una buena razón1. Al ofrecer la mejor CPU de centro de datos del mundo a clientes empresariales, los procesadores AMD EPYC de uso general brindan hasta 96 opciones de núcleo que proporcionan hasta 1,75 veces el rendimiento por watt de CPU y 1,8 veces el rendimiento en SPECrate® 2017_int_base, en comparación con los productos de la competencia2.
Las CPU de alto rendimiento de AMD proporcionan una opción sólida para las empresas que implementan cargas de trabajo de IA, como sistemas de recomendación, soluciones de aprendizaje automático y otros usos de la IA generativa.
Gracias a la infraestructura estándar y comprobada, junto con la actualización a los potentes procesadores AMD EPYC, los clientes pueden mantener costos bajos en cuanto a la superficie del servidor, la alimentación y el gasto inicial, y pueden aumentar el rendimiento y la densidad del servidor, lo que ayuda a poner más casos de uso a su alcance y mejorar el retorno de la inversión.
Obtén más información sobre los procesadores AMD EPYC™.
Acelera la IA con los aceleradores AMD Instinct™
Muchos casos de uso y cargas de trabajo de IA requieren más que lo que las CPU AMD EPYC pueden hacer por sí solas. Los grandes modelos de lenguaje continúan creciendo hasta alcanzar cientos de miles de millones (e incluso billones) de parámetros.
Afortunadamente, AMD ofrece una gama de motores de carga de trabajo para manejar incluso las tareas de IA más exigentes. Para ampliar el conjunto de cargas de trabajo de IA administradas de manera efectiva por los procesadores AMD EPYC, viene la potencia de la aceleración de GPU, gracias a los aceleradores AMD Instinct™. Mientras que las CPU de servidor de AMD gestionan modelos pequeños a medianos e implementaciones de inferencia de cargas de trabajo mixtas, los aceleradores AMD facilitan el entrenamiento de IA en tiempo real de gran volumen, implementaciones de IA dedicadas, modelos medianos a grandes e inferencia en tiempo real a gran escala, lo que acelera los resultados de IA para las empresas que buscan aprovechar al máximo las nuevas tecnologías.
AMD ofrece una gama de soluciones de GPU para diversos niveles de rendimiento y factores de forma. El acelerador insignia AMD Instinct™ MI300X, con tecnología de la pila de software AMD ROCm™, ofrece una latencia aproximadamente 2,1 veces mejor en comparación con el producto Nvidia H100 que ejecuta el chat Llama2-70b y es aproximadamente ocho veces mejor en comparación con los productos de la generación anterior en la latencia general de Llama2-70b3, 4.
Con el software de código abierto listo para la empresa AMD ROCm™ sustentando la aceleración de AMD, las empresas pueden comenzar a trabajar rápidamente en cargas de trabajo de IA, con compatibilidad para 400 000 modelos Hugging Face y compromisos profundos con otros líderes de IA, incluidos PyTorch y OpenAI.
Obtén más información acerca de los aceleradores AMD Instinct™.
Ofrece versatilidad con los aceleradores AMD Alveo™
Gracias a su diseño adaptable, los aceleradores AMD Alveo™ ofrecen un rendimiento en tiempo real en el centro de datos para una amplia gama de casos de uso. Los clientes pueden optimizar la plataforma para la carga de trabajo requerida adaptándola a los algoritmos y requisitos de aplicación en evolución según sea necesario.
Con baja latencia para aplicaciones en tiempo real y alto rendimiento y eficiencia, los aceleradores AMD Alveo son ideales para los clientes que deseen asegurarse de tener lo que necesitan para aceleración de infraestructura, medios, HPC y análisis de datos, entre otros.
Obtén más información acerca de los aceleradores AMD Alveo™.
Lleva la IA a las máquinas locales con los procesadores AMD Ryzen™
La IA no solo funciona en servidores; ahora está en dispositivos de usuario final, lo que mejora la forma en que las personas trabajan y eleva los procesos tradicionales, lo que hace que el trabajo sea más rápido y fácil, además de liberar a los equipos para enfocarse en el panorama general.
Los procesadores AMD Ryzen™ PRO son los procesadores de ultraeficiencia energética más avanzados del mundo para computadoras de escritorio empresariales5 y ofrecen el primer motor de IA integrado en un procesador x866. Este nivel de habilitación de IA desde servidores hasta dispositivos de clientes brinda capacidades increíbles que simplemente no eran posibles antes.
Obtén más información sobre los procesadores AMD Ryzen™ PRO.
Completa el panorama con los SoC adaptables AMD Versal™ para la IA en dispositivos perimetrales
Sin embargo, la IA no es solo para PC y servidores. Existen muchas aplicaciones en las que el procesamiento local de la IA en dispositivos perimetrales puede tener un gran impacto en el rendimiento y la seguridad.
En el sector automotor, la IA en dispositivos perimetrales puede mejorar la seguridad permitiendo que los datos de los sensores se procesen localmente, de modo que las decisiones se puedan tomar en tiempo real. No sería conveniente que tu vehículo autónomo espere a que los datos se procesen en la nube para decidir si se deben aplicar los frenos a fin de evitar un accidente.
En el sector de atención médica, la IA en dispositivos perimetrales puede mejorar los equipos de generación de imágenes para acelerar los diagnósticos o proporcionar visualización en tiempo real a fin de ayudar con las cirugías. También puede ayudar a proteger la privacidad del paciente porque no se tienen que enviar datos a través de la nube.
Y en el espacio industrial, la IA en dispositivos perimetrales puede ayudar a que los equipos de fábrica funcionen de manera más segura y eficiente. Los SoC adaptables y FPGA de AMD gestionan de manera eficiente el preprocesamiento, la inferencia y el posprocesamiento de datos para sistemas integrados clásicos y controlados por IA, con su oferta más reciente, el SoC adaptable Serie AMD Versal™ AI Edge de 2.ª generación, que maneja todas estas funciones en un solo chip.
Con los productos de AMD Versal, los clientes pueden aportar IA a cada aspecto de su negocio, lo que hace que los entornos industriales y de consumo existentes sean más inteligentes y estén habilitados con IA.
Obtén más información sobre los SoC adaptables AMD Versal™.
Los beneficios de la IA están por todos lados y se están convirtiendo en parte de la estructura informática moderna. Las empresas necesitan adaptar y adoptar tecnologías innovadoras como las de AMD si desean aprovechar los beneficios.
Si quieres obtener más información sobre los productos de AMD y su compatibilidad con el creciente ecosistema de la IA, comunícate con tu representante local o visita Soluciones de IA de AMD.
AMD Arena
Mejora tus conocimientos de los productos AMD con capacitaciones sobre AMD Ryzen™ PRO, AMD EPYC™, AMD Instinct™ y mucho más.
Suscríbete
Obtén actualizaciones mensuales sobre los productos, los recursos de capacitación y los webinars “Conoce a los expertos” de AMD más recientes.

Artículos relacionados
Notas al pie
- Fuente: Estimaciones de ingresos por ventas de Mercury Research, cuarto trimestre del 2023
- SP5-013D: Comparación de SPECrate®2017_int_base basada en los puntajes publicados en www.spec.org al 2/6/23. El rendimiento de AMD EPYC 9654 de 2P publicado (1800 SPECrate®2017_int_base, TDP total de 720 W, 1000 unidades en total de USD 23 610, 192 núcleos en total, rendimiento/W de 2,500, rendimiento/costo de CPU de 0,076, http://spec.org/cpu2017/results/res2023q2/cpu2017-20230424-36017.html) es 1,80 veces el de Intel Xeon Platinum 8490H de 2P publicado (1000 SPECrate®2017_int_base, TDP total de 700 W, 1000 unidades en total de USD 34 000, 120 núcleos en total, rendimiento/W de 1,429, rendimiento/costo de CPU de 0,029, http://spec.org/cpu2017/results/res2023q1/cpu2017-20230310-34562.html) [con 1,75 veces el rendimiento/W] [con 2,59 veces el rendimiento/costo de CPU]. La estimación para AMD EPYC 7763 de 2P publicada (861 SPECrate®2017_int_base, TDP total de 560 W, 1000 unidades en total de USD 15 780, 128 núcleos totales, rendimiento/W de 1,538, rendimiento/costo de CPU de 0,055, http://spec.org/cpu2017/results/res2021q4/cpu2017-20211121-30148.html) se muestra como referencia a 0,86 veces el rendimiento [con 1,08 veces el rendimiento/W] [con 1,86 veces el rendimiento/costo de CPU]. Precios de 1000 unidades de AMD y especificaciones y precios de Intel ARK.intel.com al 1/6/23. SPEC®, SPEC CPU® y SPECrate® son marcas comerciales registradas de Standard Performance Evaluation Corporation. Consulta www.spec.org para obtener más información.
- MI300-38A: Latencia general para la generación de texto mediante el modelo de chat Llama2-70b con comparación vLLM mediante un contenedor de docker personalizado para cada sistema basado en pruebas internas de AMD realizadas al 14/12/2023. Longitud de secuencia de 2048 tokens de entrada y 128 tokens de salida. En las pruebas de vLLM, se utilizó una versión mejorada del script benchmark_latency.py del directorio de evaluaciones comparativas de https://github.com/vllm-project/vllm. Se agregaron mejoras para permitir el uso de indicaciones de entrada con longitudes específicas. La versión de vLLM utilizada para MI300X contiene modificaciones que aún no están disponibles fuera de AMD. Configuraciones: servidor con CPU Intel Xeon Platinum 8480C de 2P con ocho GPU AMD Instinct™ MI300X (192 GB, 750 W), versión preliminar de ROCm® 6.1.0, PyTorch 2.2.0, vLLM para ROCm y Ubuntu® 22.04.2 en comparación con Nvidia DGX H100 con dos procesadores Intel Xeon Platinum 8480CL, ocho GPU Nvidia H100 (80 GB, 700 W), CUDA 12.1, PyTorch 2.1.0, vLLM v. 02.2.2 (más reciente) y Ubuntu 22.04. Los fabricantes de servidores pueden variar las configuraciones, lo que arroja resultados diferentes. El rendimiento puede cambiar según el uso de los controladores más recientes y las optimizaciones.
- MI300-33: Texto generado con chat Llama2-70b utilizando una secuencia de entrada de 4096 y 32 de la comparación de token de salida mediante un contenedor de docker personalizado para cada sistema basado en pruebas internas de AMD realizadas al 17/11/2023. Configuraciones: servidor de CPU Intel Xeon Platinum de 2P que usa cuatro GPU AMD Instinct™ MI300X (192 GB, 750 W), versión preliminar de ROCm® 6.0, PyTorch 2.2.0, vLLM para ROCm y Ubuntu® 22.04.2. en comparación con un servidor de CPU AMD EPYC 7763 de 2P que usa cuatro GPU AMD Instinct™ MI250 (128 GB HBM2e, 560 W), ROCm® 5.4.3, PyTorch 2.0.0., HuggingFace Transformers 4.35.0 y Ubuntu 22.04.6. En esta prueba, se utilizaron cuatro GPU en cada sistema. Los fabricantes de servidores pueden variar las configuraciones, lo que arroja resultados diferentes. El rendimiento puede cambiar según el uso de los controladores más recientes y las optimizaciones.
- Basado en un tamaño de nodo de procesador AMD más pequeño para una plataforma x86, a partir de septiembre del 2023. GD-203.
- A enero del 2024, AMD tiene el primer motor de IA dedicado disponible en un procesador de PC de escritorio, en el que “motor de IA dedicado” se define como un motor de IA que no tiene ninguna otra función aparte de procesar modelos de inferencia de IA y es parte del chip del procesador x86. Para obtener información detallada, visita: https://www.amd.com/es/products/processors/consumer/ryzen-ai.html. PXD-03
- Fuente: Estimaciones de ingresos por ventas de Mercury Research, cuarto trimestre del 2023
- SP5-013D: Comparación de SPECrate®2017_int_base basada en los puntajes publicados en www.spec.org al 2/6/23. El rendimiento de AMD EPYC 9654 de 2P publicado (1800 SPECrate®2017_int_base, TDP total de 720 W, 1000 unidades en total de USD 23 610, 192 núcleos en total, rendimiento/W de 2,500, rendimiento/costo de CPU de 0,076, http://spec.org/cpu2017/results/res2023q2/cpu2017-20230424-36017.html) es 1,80 veces el de Intel Xeon Platinum 8490H de 2P publicado (1000 SPECrate®2017_int_base, TDP total de 700 W, 1000 unidades en total de USD 34 000, 120 núcleos en total, rendimiento/W de 1,429, rendimiento/costo de CPU de 0,029, http://spec.org/cpu2017/results/res2023q1/cpu2017-20230310-34562.html) [con 1,75 veces el rendimiento/W] [con 2,59 veces el rendimiento/costo de CPU]. La estimación para AMD EPYC 7763 de 2P publicada (861 SPECrate®2017_int_base, TDP total de 560 W, 1000 unidades en total de USD 15 780, 128 núcleos totales, rendimiento/W de 1,538, rendimiento/costo de CPU de 0,055, http://spec.org/cpu2017/results/res2021q4/cpu2017-20211121-30148.html) se muestra como referencia a 0,86 veces el rendimiento [con 1,08 veces el rendimiento/W] [con 1,86 veces el rendimiento/costo de CPU]. Precios de 1000 unidades de AMD y especificaciones y precios de Intel ARK.intel.com al 1/6/23. SPEC®, SPEC CPU® y SPECrate® son marcas comerciales registradas de Standard Performance Evaluation Corporation. Consulta www.spec.org para obtener más información.
- MI300-38A: Latencia general para la generación de texto mediante el modelo de chat Llama2-70b con comparación vLLM mediante un contenedor de docker personalizado para cada sistema basado en pruebas internas de AMD realizadas al 14/12/2023. Longitud de secuencia de 2048 tokens de entrada y 128 tokens de salida. En las pruebas de vLLM, se utilizó una versión mejorada del script benchmark_latency.py del directorio de evaluaciones comparativas de https://github.com/vllm-project/vllm. Se agregaron mejoras para permitir el uso de indicaciones de entrada con longitudes específicas. La versión de vLLM utilizada para MI300X contiene modificaciones que aún no están disponibles fuera de AMD. Configuraciones: servidor con CPU Intel Xeon Platinum 8480C de 2P con ocho GPU AMD Instinct™ MI300X (192 GB, 750 W), versión preliminar de ROCm® 6.1.0, PyTorch 2.2.0, vLLM para ROCm y Ubuntu® 22.04.2 en comparación con Nvidia DGX H100 con dos procesadores Intel Xeon Platinum 8480CL, ocho GPU Nvidia H100 (80 GB, 700 W), CUDA 12.1, PyTorch 2.1.0, vLLM v. 02.2.2 (más reciente) y Ubuntu 22.04. Los fabricantes de servidores pueden variar las configuraciones, lo que arroja resultados diferentes. El rendimiento puede cambiar según el uso de los controladores más recientes y las optimizaciones.
- MI300-33: Texto generado con chat Llama2-70b utilizando una secuencia de entrada de 4096 y 32 de la comparación de token de salida mediante un contenedor de docker personalizado para cada sistema basado en pruebas internas de AMD realizadas al 17/11/2023. Configuraciones: servidor de CPU Intel Xeon Platinum de 2P que usa cuatro GPU AMD Instinct™ MI300X (192 GB, 750 W), versión preliminar de ROCm® 6.0, PyTorch 2.2.0, vLLM para ROCm y Ubuntu® 22.04.2. en comparación con un servidor de CPU AMD EPYC 7763 de 2P que usa cuatro GPU AMD Instinct™ MI250 (128 GB HBM2e, 560 W), ROCm® 5.4.3, PyTorch 2.0.0., HuggingFace Transformers 4.35.0 y Ubuntu 22.04.6. En esta prueba, se utilizaron cuatro GPU en cada sistema. Los fabricantes de servidores pueden variar las configuraciones, lo que arroja resultados diferentes. El rendimiento puede cambiar según el uso de los controladores más recientes y las optimizaciones.
- Basado en un tamaño de nodo de procesador AMD más pequeño para una plataforma x86, a partir de septiembre del 2023. GD-203.
- A enero del 2024, AMD tiene el primer motor de IA dedicado disponible en un procesador de PC de escritorio, en el que “motor de IA dedicado” se define como un motor de IA que no tiene ninguna otra función aparte de procesar modelos de inferencia de IA y es parte del chip del procesador x86. Para obtener información detallada, visita: https://www.amd.com/es/products/processors/consumer/ryzen-ai.html. PXD-03