Descubre el Ecosistema IT [Information Technology] y todo sobre Inteligencia Artificial

Home » IT/PRODUCTS » AMD presenta un ecosistema abierto de IA en el evento Advancing AI 2025

AMD presenta un ecosistema abierto de IA en el evento Advancing AI 2025

by José Zegarra
16 minutes read
A+A-
Reset

AMD en su evento Advancing AI 2025 presentó su visión para un ecosistema abierto de IA, detallando nuevos procesadores, software y sistemas. Solo AMD impulsa todo el espectro de la IA, reuniendo GPUs, CPUs, redes y software abierto líderes para ofrecer flexibilidad y rendimiento incomparables. Meta, OpenAI, xAI, Oracle, Microsoft, Cohere, HUMAIN, Red Hat, Astera Labs y Marvell discutieron cómo están colaborando con AMD para soluciones de IA.

Santa Clara, California, 13 de junio de 2025.— AMD (NASDAQ: AMD) presentó su visión completa para una plataforma de IA totalmente integrada y anunció una innovadora infraestructura abierta y escalable para inteligencia artificial, diseñada sobre estándares de la industria, durante su evento Advancing AI 2025.

AMD y sus socios destacaron:

  • Cómo están construyendo el ecosistema abierto de IA con los nuevos aceleradores AMD Instinct™ Serie MI350.
  • El continuo crecimiento del ecosistema AMD ROCm™.
  • Los potentes diseños abiertos de AMD a escala de rack y su roadmap que promete un rendimiento líder en IA más allá de 2027.

AMD está impulsando la innovación en IA a un ritmo sin precedentes, como lo demuestra el lanzamiento de nuestros aceleradores AMD Instinct Serie MI350, los avances en nuestras soluciones de próxima generación ‘Helios’ a escala de rack y el creciente impulso de nuestra pila de software abierto ROCm”, dijo la Dra. Lisa Su, presidenta y CEO de AMD. “Estamos entrando en la próxima fase de la IA, impulsada por estándares abiertos, innovación compartida y el liderazgo cada vez mayor de AMD en un amplio ecosistema de socios de hardware y software que están colaborando para definir el futuro de la IA”.

Advancing AI 2025: AMD ofrece soluciones líderes para acelerar un ecosistema abierto de IA

AMD anunció un amplio portafolio de hardware, software y soluciones para impulsar todo el espectro de la IA:

  • AMD presentó los GPUs Instinct Serie MI350, estableciendo un nuevo estándar en rendimiento, eficiencia y escalabilidad para la IA generativa y la computación de alto rendimiento. La Serie MI350, que incluye los modelos Instinct MI350X y MI355X, ofrece un aumento[1] de 4x en capacidad de cómputo de IA en comparación con la generación anterior y un salto generacional de 35x en inferencia [2], abriendo camino a soluciones transformadoras de IA en diversas industrias. Además, el MI355X proporciona importantes mejoras en relación costo-rendimiento, generando hasta un 40% más de tokens por dólar en comparación con soluciones competidoras.[3] Más detalles están disponibles en este blog de Vamsi Boppana, vicepresidente sénior de IA en AMD.
  • AMD demostró su infraestructura de IA a escala de rack de extremo a extremo, ya implementada con los aceleradores AMD Instinct Serie MI350, procesadores AMD EPYC™ de 5ª generación y las NICs AMD Pensando™ Pollara en despliegues de hiperescala como Oracle Cloud Infrastructure (OCI). Esta solución estará disponible en la segunda mitad de 2025.
  • AMD también presentó un adelanto de su próxima generación de racks de IA, denominada «Helios». Este estará construido con los GPUs de próxima generación AMD Instinct Serie MI400, que se espera ofrezcan hasta 10x más rendimiento en la ejecución de inferencias en modelos Mixture of Experts [4] en comparación con la generación anterior. Además, incluirá los procesadores AMD EPYC «Venice» basados en la arquitectura «Zen 6» y las NICs AMD Pensando «Vulcano». Más detalles están disponibles en esta publicación del blog.
  • La última versión de la pila de software de IA de código abierto de AMD, ROCm 7, ha sido diseñada para satisfacer las crecientes demandas de la IA generativa y las cargas de trabajo de computación de alto rendimiento, al mismo tiempo que mejora significativamente la experiencia de los desarrolladores en todos los aspectos. ROCm 7 incluye soporte mejorado para marcos estándar de la industria, compatibilidad ampliada con hardware y nuevas herramientas de desarrollo, controladores, APIs y bibliotecas destinadas a acelerar el desarrollo y la implementación de IA. Más detalles están disponibles en esta publicación de blog de Anush Elangovan, vicepresidente corporativo de Desarrollo de Software de IA en AMD.
  • Instinct Serie MI350 superó el objetivo de AMD a cinco años de mejorar la eficiencia energética en el entrenamiento de IA y los nodos de computación de alto rendimiento en 30x, logrando finalmente una mejora de 38x[5]. Además, AMD presentó un nuevo objetivo para 2030: aumentar 20x la eficiencia energética a escala de rack tomando como referencia el año base 2024[6]. Esto permitirá que un modelo típico de IA, que hoy requiere más de 275 racks para ser entrenado, pueda hacerlo en menos de un solo rack completamente utilizado para 2030, utilizando un 95% menos de electricidad.[7] Más detalles están disponibles en esta publicación de blog de Sam Naffziger, vicepresidente sénior y miembro corporativo de AMD.
  • AMD también anunció la amplia disponibilidad de AMD Developer Cloud para las comunidades globales de desarrolladores y de código abierto. Diseñada específicamente para el desarrollo rápido y de alto rendimiento en IA, esta plataforma ofrecerá a los usuarios acceso a un entorno en la nube completamente gestionado, con herramientas y flexibilidad para iniciar proyectos de IA y escalarlos sin límites. Con ROCm 7 y AMD Developer Cloud, AMD está eliminando barreras y ampliando el acceso a la computación de próxima generación. Colaboraciones estratégicas con líderes como Hugging Face, OpenAI y Grok están demostrando el poder de soluciones abiertas y co-desarrolladas.

Ecosistema de socios líderes destaca los avances en IA impulsados por AMD

Actualmente, siete de las 10 principales empresas de desarrollo de modelos y compañías de IA están ejecutando cargas de trabajo de producción en aceleradores Instinct. Entre estas empresas se encuentran Meta, OpenAI, Microsoft y xAI, quienes se unieron a AMD y otros socios en el evento Advancing AI para discutir cómo están colaborando con AMD en soluciones de IA para entrenar los modelos de IA más avanzados de la actualidad, potenciar la inferencia a gran escala y acelerar la exploración y el desarrollo de IA:

  • Meta detalló cómo el Instinct MI300X está ampliamente implementado para la inferencia de Llama 3 y Llama 4. Meta expresó su entusiasmo por el MI350, destacando su capacidad de cómputo, rendimiento por TCO (costo total de propiedad) y memoria de próxima generación. Meta continúa colaborando estrechamente con AMD en roadmaps de IA, incluyendo planes para la plataforma Instinct Serie MI400.
  • El CEO de OpenAI, Sam Altman, habló sobre la importancia de optimizar de manera integral el hardware, el software y los algoritmos, así como de la estrecha colaboración de OpenAI con AMD en infraestructura de IA, con investigaciones y modelos GPT en producción sobre Azure utilizando MI300X, además de una colaboración profunda en el diseño de las plataformas de la Serie MI400.
  • Oracle Cloud Infrastructure (OCI) se encuentra entre los primeros líderes de la industria en adoptar la infraestructura abierta de IA a escala de rack de AMD con GPUs AMD Instinct MI355X. OCI aprovecha los CPUs y GPUs de AMD para ofrecer un rendimiento equilibrado y escalable en clústeres de IA, y anunció que ofrecerá clústeres de IA a escala zetta acelerados por los últimos procesadores AMD Instinct, con hasta 131,072 GPUs MI355X, permitiendo a los clientes construir, entrenar e inferir IA a gran escala.
  • HUMAIN habló sobre su acuerdo histórico con AMD para construir una infraestructura de IA abierta, escalable, resiliente y rentable, aprovechando todo el espectro de plataformas de cómputo que solo AMD puede proporcionar.
  • Microsoft anunció que el Instinct MI300X ahora está impulsando modelos tanto propietarios como de código abierto en producción en Azure.
  • Cohere compartió que sus modelos Command, de alto rendimiento y escalables, están implementados en el Instinct MI300X, proporcionando inferencia de LLM de nivel empresarial con alto rendimiento, eficiencia y privacidad de datos.
  • Red Hat describió cómo su colaboración ampliada con AMD permite entornos de IA listos para producción, con GPUs AMD Instinct en Red Hat OpenShift AI, ofreciendo procesamiento de IA potente y eficiente en entornos híbridos de nube.
  • Astera Labs destacó cómo el ecosistema abierto UALink acelera la innovación y ofrece mayor valor a los clientes, además de compartir planes para ofrecer un portafolio integral de productos UALink para respaldar la infraestructura de IA de próxima generación.
  • Marvell se unió a AMD para resaltar su colaboración como parte del Consorcio UALink, desarrollando una interconexión abierta que brinda la máxima flexibilidad para la infraestructura de IA.

 Recursos Adicionales

  • Obtén más información sobre el evento aquí.
  • Accede al kit de prensa de AAI 2025 aquí.
  • Descubre más sobre las soluciones de IA de AMD aquí.
  • Conéctate con AMD en LinkedIn.
  • Sigue a AMD en X: @AMD@AMDAI.

Acerca de AMD

Durante más de 55 años, AMD ha liderado la innovación en tecnologías de computación de alto rendimiento, gráficos y visualización. Cientos de millones de consumidores, empresas Fortune 500 e instalaciones científicas líderes en todo el mundo confían en la tecnología de AMD para mejorar cómo viven, trabajan y se divierten. Los empleados de AMD están enfocados en desarrollar productos líderes en rendimiento y adaptabilidad que amplían los límites de lo posible. Para obtener más información sobre cómo AMD está transformando el presente e inspirando el futuro, visita www.amd.com.

Declaración de advertencia

Este comunicado de prensa contiene declaraciones prospectivas sobre Advanced Micro Devices, Inc. (AMD), como las características, funcionalidades, rendimiento, disponibilidad, tiempos y beneficios esperados de los productos y hojas de ruta de AMD; la plataforma de inteligencia artificial de AMD; y el ecosistema de socios de AMD, realizadas de conformidad con las disposiciones de puerto seguro de la Ley de Reforma de Litigios sobre Valores Privados de 1995.

Las declaraciones prospectivas suelen identificarse con palabras como «podría», «puede», «espera», «cree», «planea», «tiene la intención», «proyecta» y otros términos similares. Se advierte a los inversionistas que estas declaraciones están basadas en creencias, suposiciones y expectativas actuales, solo son válidas a partir de la fecha de este comunicado y conllevan riesgos e incertidumbres que podrían hacer que los resultados reales difieran significativamente de las expectativas actuales.

Dichas declaraciones están sujetas a riesgos e incertidumbres conocidos y desconocidos, muchos de los cuales son difíciles de predecir y generalmente están fuera del control de AMD, que podrían causar que los resultados reales y otros eventos futuros difieran de manera significativa de los expresados, implícitos o proyectados en esta información prospectiva.

Factores importantes que podrían causar diferencias materiales incluyen, entre otros:

  • Dominio de Intel Corporation en el mercado de microprocesadores y sus prácticas comerciales agresivas.

  • Dominio de Nvidia en el mercado de unidades de procesamiento gráfico y sus prácticas comerciales agresivas.

  • Mercados altamente competitivos en los que se venden los productos de AMD.

  • Naturaleza cíclica de la industria de semiconductores.

  • Condiciones del mercado en las industrias donde se venden los productos AMD.

  • Capacidad de AMD para lanzar productos oportunamente con las características y niveles de rendimiento esperados.

  • Pérdida de un cliente importante.

  • Incertidumbre económica y del mercado.

  • Patrones de ventas trimestrales y estacionales.

  • Capacidad de AMD para proteger adecuadamente su tecnología o propiedad intelectual.

  • Fluctuaciones desfavorables en los tipos de cambio.

  • Capacidad de fabricantes externos para producir productos de AMD de manera oportuna, en cantidades suficientes y con tecnologías competitivas.

  • Disponibilidad de equipos, materiales, sustratos o procesos de fabricación esenciales.

  • Capacidad para lograr los rendimientos de fabricación esperados.

  • Capacidad de AMD para generar ingresos con sus productos SoC semi-customizados.

  • Vulnerabilidades potenciales de seguridad.

  • Incidentes de seguridad, incluyendo caídas de TI, pérdida de datos, filtraciones y ciberataques.

  • Incertidumbres en la ordenación y envío de productos de AMD.

  • Dependencia de propiedad intelectual de terceros para diseñar y lanzar nuevos productos.

  • Dependencia de terceros para el diseño, fabricación y suministro de tarjetas madre, software, memoria y otros componentes de plataforma.

  • Dependencia del soporte de Microsoft y otros proveedores de software para diseñar y desarrollar software compatible.

  • Dependencia de distribuidores y socios de tarjetas adicionales.

  • Impacto de modificaciones o interrupciones en los procesos internos y sistemas de información de AMD.

  • Compatibilidad de productos de AMD con software y hardware estándar de la industria.

  • Costos relacionados con productos defectuosos.

  • Eficiencia de la cadena de suministro.

  • Capacidad para depender de funciones logísticas de terceros.

  • Capacidad para controlar eficazmente las ventas en el mercado gris.

  • Impacto a largo plazo del cambio climático.

  • Acciones y regulaciones gubernamentales como regulaciones de exportación, aranceles, medidas proteccionistas y requisitos de licencias.

  • Capacidad para hacer valer activos fiscales diferidos.

  • Potenciales obligaciones fiscales.

  • Reclamaciones y litigios presentes y futuros.

  • Impacto de leyes ambientales, provisiones sobre minerales de conflicto y otras leyes o regulaciones.

  • Expectativas cambiantes de gobiernos, inversionistas, clientes y otras partes interesadas sobre responsabilidad corporativa.

  • Temas relacionados con el uso responsable de la IA.

  • Restricciones impuestas por acuerdos que rigen bonos de AMD, garantías de bonos de Xilinx, acuerdo de crédito revolvente y el acuerdo de crédito de ZT Systems.

  • Impacto de adquisiciones, alianzas estratégicas e inversiones en los negocios de AMD y su capacidad para integrar empresas adquiridas, incluyendo ZT Systems.

  • Capacidad de AMD para vender el negocio de manufactura de ZT Systems.

  • Impacto de deterioros en los activos de la compañía combinada.

  • Riesgos políticos, legales, económicos y desastres naturales.

  • Deterioro futuro en licencias tecnológicas adquiridas.

  • Capacidad para atraer y retener talento calificado.

  • Volatilidad en el precio de las acciones de AMD.

Se insta a los inversionistas a revisar detalladamente los riesgos e incertidumbres descritos en los informes de AMD presentados ante la Comisión de Bolsa y Valores (SEC), incluyendo, pero no limitado a, los formularios 10-K y 10-Q más recientes de AMD.

AMD, el logotipo de flecha de AMD, EPYC, AMD CDNA, AMD Instinct, Pensando, ROCm, Ryzen, y sus combinaciones, son marcas registradas de Advanced Micro Devices, Inc. Otros nombres se utilizan solo con fines informativos y pueden ser marcas de sus respectivos propietarios.

Notas:

[1] Basado en cálculos de AMD Performance Labs en mayo de 2025, para determinar el rendimiento teórico máximo en precisión de ocho (8) GPUs AMD Instinct™ MI355X y MI350X (Plataforma) y ocho (8) GPUs AMD Instinct MI325X, MI300X, MI250X y MI100 (Plataforma) usando los tipos de datos FP16, FP8, FP6 y FP4 con Matrix. La configuración de los fabricantes de servidores puede variar. Los resultados pueden variar según el uso de los controladores y optimizaciones más recientes.

[2] MI350-044: Basado en pruebas internas de AMD al 9 de junio de 2025. Usando 8 GPUs AMD Instinct™ MI355X para medir rendimiento de inferencia en línea del modelo Llama 3.1-405B chat (FP4) comparado con 8 GPUs AMD Instinct™ MI300X (FP8). Se utilizó una entrada de 32,768 tokens y salida de 1,024 tokens. Tiempo de inferencia de 35.3 ms en MI300X y 50.6 ms en MI355X. Resultados pueden variar según configuración y controladores.

[3] Según pruebas de AMD Labs al 6 de junio de 2025 con el modelo LLaMA 3.1-405B usando tipo de dato FP4 en GPU AMD Instinct™ MI355X (8x) vs. resultados publicados para NVIDIA B200 HGX (8xGPU). El rendimiento por dólar se calculó con precios de B200 (Coreweave) y precios esperados de MI355X en la nube. Resultados pueden variar.

[4] MI400-001: Proyección de rendimiento al 5 de junio de 2025 con estimaciones de diseño de una futura GPU AMD Instinct MI400 comparada con MI355X. Incluye modelos GenAI con GEMM y Attention. Resultados pueden variar una vez que los productos se lancen al mercado.

[5] EPYC-030a: Cálculo con proyecciones de consumo energético para 2025, desarrollado con Koomey Analytics, incluyendo volúmenes de despliegue previstos y efectividad del uso de energía en centros de datos (PUE).

[6] Diseño de racks AMD para entrenamiento/inferencia de IA (2024–2030) basado en hojas de ruta, con análisis histórico y especificaciones de componentes clave (GPUs, CPUs, DRAM, almacenamiento, refrigeración y comunicación). No incluye consumo de aire o agua externos, pero sí ventiladores y bombas internas. Las mejoras se estiman con base en rendimiento sostenido, ancho de banda de memoria (HBM) y red (escala vertical).

FLOPS

HBM BW

Scale-up BW

Entrenamiento

70.0%

10.0%

20.0%

Inferencia

45.0%

32.5%

22.5%

El rendimiento y el consumo de energía por rack implican, en conjunto, tendencias en el rendimiento por watt a lo largo del tiempo para entrenamiento e inferencia. Luego, los índices de progreso en entrenamiento e inferencia se ponderan 50:50 para obtener la estimación final del progreso proyectado por AMD hacia 2030 (20 veces superior).

Esta estimación de rendimiento asume que continuará el avance en los modelos de IA para aprovechar formatos de cálculo de menor precisión, tanto en entrenamiento como en inferencia, lo cual permite un aumento efectivo en FLOPS y una reducción en el ancho de banda requerido por cada FLOP.

[7] AMD estimó la cantidad de racks necesarios para entrenar un modelo de IA representativo, basado en datos de EPOCH AI (https://epoch.ai).

Para este cálculo, se asume —según dichos datos— que un modelo típico requiere 102510^{25} operaciones en punto flotante para ser entrenado (basado en la mediana de los datos de 2025), y que este entrenamiento ocurre en el lapso de un mes.

La fórmula usada es:
FLOPs necesarios = 102510^{25} / (segundos por mes) / Utilización de FLOPs por modelo (MFU)
= 102510^{25} / (2.6298 × 10⁶) / 0.6

Racks necesarios = FLOPs necesarios / (FLOPS por rack en 2024 y 2030)

Las estimaciones de rendimiento computacional según la hoja de ruta de AMD indican que aproximadamente 276 racks serían necesarios en 2025 para entrenar un modelo típico durante un mes usando el producto MI300X (asumiendo 22.656 PFLOPS por rack con 60% de utilización), mientras que se requeriría menos de un rack completamente utilizado para entrenar ese mismo modelo en 2030 usando una configuración proyectada basada en AMD.

Estas proyecciones implican una reducción superior a 276 veces en la cantidad de racks necesarios para entrenar el mismo modelo en un período de seis años.

El consumo eléctrico estimado para un sistema MI300X capaz de entrenar completamente ese modelo de IA definido para 2025, usando un rack de 2024, es de aproximadamente 7 GWh, mientras que un sistema AMD proyectado para 2030 podría entrenar ese mismo modelo usando cerca de 350 MWh, una reducción del 95%.

AMD aplicó las intensidades de carbono por kWh de la Agencia Internacional de Energía (IEA) según el World Energy Outlook 2024
(https://www.iea.org/reports/world-energy-outlook-2024).

El escenario de políticas actuales de la IEA proporciona las intensidades de carbono para 2023 y 2030. AMD calculó el cambio anual promedio en la intensidad entre 2023 y 2030 y lo aplicó para obtener la intensidad de 2024 (434 g CO₂/kWh) en comparación con la de 2030 (312 g CO₂/kWh).

  • Las emisiones para el escenario base de 2024 con 7 GWh x 434 g CO₂/kWh equivalen a aproximadamente 3,000 toneladas métricas de CO₂.

  • Para el escenario proyectado de 2030, 350 MWh x 312 g CO₂/kWh equivale a unas 100 toneladas métricas de CO₂.

Apoya al Periodismo Independiente

Ad-apoya-PLIN-itusers-portal

¿Te sirvió en algo este contenido?, ayúdanos a combatir la Desinformación, dona desde S/ 1.00 a nuestro PLIN 943-438-457

Apoya a ITUSERS-qrcode

Social Share or Summarize with AI

¿De cuánta utilidad te ha parecido este contenido?

¡Haz clic en una estrella para puntuarlo!

Promedio de puntuación 5 / 5. Recuento de votos: 1

Hasta ahora, ¡no hay votos!. Sé el primero en puntuar este contenido.

Spread the love

You may also like

Leave a Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Translate »

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More