Publicidad
Revista Digital
Publicidad

AWS presenta Trainium 3 y anticipa un nuevo nivel de competencia

Las empresas de nube ya no sólo construyen arquitecturas para procesar datos, sino que también enfocan sus esfuerzos en el diseño de chips de IA.
mié 03 diciembre 2025 03:00 PM
¿Se le acaba el negocio a Nvidia? AWS muestra músculo con su chip Trainium 3 para IA
La tercera generación de este procesador consume menos energía. (Cortesía: AWS)

Las Vegas, Nevada. Este año, las empresas de cloud anunciaron miles de millones en infraestructura para centros de datos. El último reporte de Bloomberg NEF señala que en 2025 se registró una inyección de 450,000 millones de dólares y parte de estas inversiones también se replican en investigación y desarrollo de productos especializados en Inteligencia Artificial, como los chips específicos para el procesamiento de esta tecnología.

AWS, por ejemplo, lanzó Trainium 3 y las nuevas generaciones de TPU que son, en esencia, la respuesta a que no pueden seguir dependiendo únicamente del proveedor que domina el mercado: Nvidia.

Publicidad

Luis Caro Pérez, líder de Cloud e IA en AWS Latinoamérica, señaló que la disponibilidad de estos chips responde a tener una infraestructura propia y a contar con productos de hardware personalizados a las necesidades de la empresa.

“La versión 3 ya estaba disponible y ya estamos trabajando en la versión 4. Este producto está disponible para todos los clientes, pero pueden elegirlo quienes usan la tercera capa, ya que ellos escogen qué procesador usan”, precisó Caro.

Dentro de las ventajas que tiene este nuevo producto es que ofrecen hasta 4.4 veces más rendimiento computacional, 4 veces mayor eficiencia energética y casi 4 veces más ancho de banda de memoria que los Trainium2 UltraServers, permitiendo a organizaciones de todos los tamaños entrenar modelos de IA más grandes más rápido y atender a más usuarios a menor costo.

Pero este movimiento también es una tendencia que otras empresas siguen, como Google Cloud, y aunque ambas han dicho que no quieren vender semiconductores como Nvidia, lo que sí quieren es asegurarse de que la infraestructura con la que entrenan y operan sus modelos sea lo suficientemente rápida, eficiente y —sobre todo— barata como para sostener esta nueva economía de IA generativa que exige miles de millones de dólares en cómputo cada año.

En el caso de AWS, Trainium 3 representa la ambición más clara de convertir su nube en una fábrica industrial de modelos de IA. El chip no busca ser una copia del H100, sino una pieza profundamente optimizada para su propio ecosistema.

El chipset se integra directamente con los servicios de alto nivel de la compañía, desde Bedrock hasta los nuevos modelos Nova, y le permite ofrecer a sus clientes una alternativa atractiva frente a la inflación del cómputo basada en GPUs. Además, con clientes ancla como Anthropic utilizando cientos de miles de estos chips, AWS demuestra que su apuesta también es industrial.

Google, por su parte, compite desde una posición distinta pero igual de poderosa. Su experiencia en el diseño de chips específicos para IA lleva casi una década iterando sobre las TPUs que alimentan servicios masivos como Search, Photos o Maps. Las nuevas generaciones pensadas para Gemini perfeccionan un hardware a la medida para resolver sus propias necesidades, y podría abrir una nueva vertical de negocio, más allá del autoconsumo.

Mientras tanto, Nvidia sigue siendo el vértice del mercado de aceleradores de IA y conserva un dominio casi absoluto gracias a su ecosistema de software y su red de socios, pero conforme estos gigantes de Cloud desarrollan alternativas internas, parte de la demanda se redistribuye.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad