Publicidad
Publicidad

AMD lanza un nuevo chip para hacer frente a Nvidia en la carrera de la IA

La serie MI350 promete entregar hasta 35 veces mejor rendimiento en inferencia de IA respecto a los dispositivos Blackwell, de Nvidia.
jue 12 junio 2025 02:00 PM
AMD compite 'rudo' con Nvidia y lanza un nuevo chip para avanzar en la carrera de IA
Lisa Su, directora ejecutiva de AMD, presentando el nuevo chip de Inteligencia Artificial de la empresa.

San José, California - En el mundo de los aceleradores y centros de datos de Inteligencia Artificial, Nvidia es el referente que todos quieren alcanzar. Los ojos se centran en esta compañía cuando hace un anuncio; sin embargo, AMD le está robando las miradas y muestra de ello es su nueva serie de chips Instinct MI350, una solución dirigida a empresas, cuyo rendimiento supera a los chips de última generación de Nvidia.

AMD lanza dos nuevas infraestructuras de IA

La carrera de la IA tiene más competidores y el que se acaba de sumar a la competencia es la serie MI350 de AMD, la cual incluye dos versiones, la MI350X y la MI355X, mismas que se comparan con el rendimiento que ofrecen las Blackwell GB200 y B200 de Nvidia, además mejorar algunas características clave para la IA empresarial.

“Es claro que estamos entrando a la nueva era de la IA”, comentó la CEO de AMD, Lisa Su, durante el evento Advancing AI, realizado en San José, California. “Las mayores empresas de nube e IA están usando Instinct para impulsar sus últimos modelos y nuevas cargas de trabajo. Y hay un montón de nuevas innovaciones que están sucediendo con las nuevas startups de IA”.

Publicidad

De acuerdo con la empresa, esta nueva serie de dispositivos promete entregar hasta 35 veces mejor rendimiento en inferencia de IA (hacer funcionar modelos ya entrenados) respecto a los dispositivos de la competencia, una característica que la hace muy relevante para los clientes empresariales que piensan trasladar sus operaciones a estos entornos.

Cabe resaltar que este tipo de soluciones no están destinadas al usuario final, pues se componen de grandes conjuntos de procesadores, también conocidas como racks de centros de datos, que están especialmente diseñados para manejar grandes e intensas necesidades computacionales.

Los aceleradores de IA están especializados en tareas de IA y pueden especializarse aún más para tipos específicos de aplicaciones de IA. Si bien pueden aportar valor a sistemas que realizan funciones no relacionadas con la IA, están diseñados para tareas de IA y se aplican óptimamente a ellas.

Si bien este tipo de componentes no están orientados a los usuarios finales, son las piezas clave que permiten entrenar y ejecutar modelos de IA modernos, como los LLM (grandes modelos de lenguaje, como ChatGPT), generadores de imágenes, sistemas de recomendación y asistentes virtuales, entre otros ejemplos. Actualmente, empresas como xAI, de Elon Musk, o Meta, de Mark Zuckerberg, están haciendo uso de la infraestructura de AMD.

Aunque los usuarios finales no adquieren directamente alguno de estos chips, muchas de las herramientas que usan en su día a día —desde redes sociales hasta asistentes inteligentes— están impulsadas por ellos y su evolución representa una mejor relación con estas plataformas basadas en IA.

En términos de sostenibilidad, la serie Instinct MI350 superó el objetivo de cinco años de AMD de mejorar la eficiencia energética del entrenamiento de IA y los nodos de computación de alto rendimiento en 30 veces.

La serie MI350 estará disponible al inicio del tercer trimestre del año, según anunció AMD, y con este lanzamiento se espera que la compañía sea capaz de robar cuota de mercado a Nvidia, pues en la actualidad el sector está dominado por esta empresa. Según datos de JPR, la participación de Nvidia alcanzó el 90% a finales de 2024, mientras que la de AMD pasó del 17 al 10%.

No obstante, Su resaltó que las ventas de los aceleradores superó los 5,000 millones de dólares el año pasado y la compañía tiene la expectativa de que su segmento crecerá a “doble dígito” durante este 2025. “Creo que la demanda de computación de IA es fuerte”, comentó Su a finales de 2024.

AMD apuesta por una herramientas de código abierto para destacar

En una conversación con Expansión, Marcio Aguiar, director de la división Enterprise de Nvidia para América Latina, dijo que si bien hay una serie de competidores en el mercado, su principal ventaja es el hecho de que cuentan con una infraestructura que también contempla soluciones de software para sus clientes.

En este sentido, AMD también respondió a la competencia y anunció la disponibilidad de AMD Developer Cloud para las comunidades globales de desarrolladores y de código abierto, el cual es un software para el desarrollo rápido y de alto rendimiento de IA, donde los usuarios tienen acceso a un entorno en la nube totalmente administrado con las herramientas y la flexibilidad para comenzar con los proyectos de IA y crecer sin límites.

A partir de esta iniciativa se reducen las barreras y se amplía el acceso a la computación de próxima generación. AMD afirma que las colaboraciones estratégicas con líderes como Hugging Face, OpenAI y Grok demuestran el poder de las soluciones abiertas y co-desarrolladas.

“En AMD y, francamente, para nosotros como industria, la apertura dañó debería ser sólo una palabra de moda”, declaró Su. “En realidad, es fundamental cómo aceleramos la adopción a escala y el impacto de la IA en los próximos años”.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad