Publicidad
Revista Digital
Publicidad

La batalla de los chips ya no es sólo de Nvidia

Las empresas enfocadas en la nube cada vez quieren depender menos de la empresa de Jensen Huang, a nivel de infraestructura.
lun 11 mayo 2026 05:55 AM
venta chips google y AWS
Las empresas usan los chips que fabrican para autoconsumo y también para algunos clientes. (BlackJack3D/Getty Images)

La carrera por la inteligencia artificial tiene distintas fases de evolución y después de dos años dominados por la pregunta de quién tendría el mejor modelo, la disputa se mueve hacia el control de los chips y la infraestructura de centros de datos.

Nvidia sigue en el centro de esa economía, sus GPUs son la referencia para entrenamiento e inferencia de IA, y sus principales clientes, como Amazon, Google, Microsoft, Meta, OpenAI y otros laboratorios, siguen dependiendo de su capacidad para sostener el crecimiento de sus productos y servicios. Pero la novedad de esta temporada de reportes trimestrales es que estos compradores empiezan a hacer sus propios chips.

Publicidad

En el primer trimestre de 2026, AWS reportó ingresos por 37,600 millones de dólares, un crecimiento anual de 28%, y una utilidad operativa de 14,200 millones de dólares. Andy Jassy, CEO de Amazon, dijo en su carta a inversionistas que el negocio de chips que incluye Graviton, Trainium y Nitro, ya supera una tasa anualizada de 20,000 millones de dólares y crece a triple dígito.

“Nuestro negocio de chips está en efervescencia. Casi toda la IA hasta ahora se ha hecho con chips de Nvidia, pero ha comenzado un nuevo cambio”, dijo Jassy.

Aunque Amazon quiere mantener a Nvidia dentro de AWS, también quiere empujar Trainium como una alternativa con mejor relación entre costo y desempeño.

Graviton es su CPU basada en Arm para cargas generales de nube, mientras que Trainium es su acelerador especializado para entrenamiento e inferencia de IA, y Nitro es el sistema de hardware y chips que permite virtualización, seguridad, almacenamiento y aislamiento de cargas en EC2.

Google sigue una ruta similar, en el primer trimestre de 2026, Google Cloud creció 63% y superó por primera vez los 20,000 millones de dólares en ingresos trimestrales, impulsado por productos de IA, infraestructura empresarial y servicios centrales de Google Cloud. Sundar Pichai, CEO de Alphabet, también dijo que el backlog de Google Cloud casi se duplicó trimestre contra trimestre y superó los 460,000 millones de dólares.

Publicidad

La compañía dijo que entregará chips TPU a un grupo selecto de clientes para sus propios centros de datos, con la mayor parte de los ingresos esperados hasta 2027. Esto marca un cambio importante, pues Google ya no sólo usa TPUs para optimizar productos como Gemini, ahora busca que esos chips sean parte de la infraestructura de terceros.

Patrick Moorhead, CEO y analista principal de Moor Insights & Strategy, coincide en que la transición no será sencilla. Para él, los racks de chips de Google y Amazon son todavía “muy personalizados y propietarios”, diseñados para sus propios centros de datos, lo que puede dificultar su adopción masiva.

Alvin Nguyen, analista senior de Forrester, dijo a Business Insider que Nvidia debería estar “preocupada, pero no alarmada” y la razón es que la empresa liderada por Jensen Huang ha construido un ecosistema de hardware, software y soporte que facilita a los clientes elegir sus plataformas.

Las empresas construyen rutas paralelas para evitar que Nvidia sea el único proveedor de sus centros de datos, pero Amazon y Google están usando sus propios semiconductores como una herramienta defensiva y ofensiva a la vez.

Defensiva, porque les permite reducir exposición a precios altos, restricciones de suministro y calendarios de entrega. Ofensiva, porque si logran ofrecer cómputo especializado a menor costo, pueden capturar más demanda de empresas y laboratorios de IA sin sacrificar tanto margen, de acuerdo con Nguyen.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad