Nvidia confía en su ecosistema
Marcio Aguiar, director de Enterprise para Nvidia en Latam, señala que si bien avanzan en los desarrollos de sus chips, lo hacen para evitar depender de Nvidia en sus operaciones de IA, pero considera difícil que lleguen a alcanzar su dominio, especialmente con clientes externos. “Google tiene su TPU más para uso propio que para oferta para clientes corporativos”, comenta en entrevista, donde agrega que el enfoque es de ser co-competidores.
Esta es una estrategia comercial en la que los rivales trabajan juntos para maximizar las ganancias o crear mercados nuevos y más grandes, en lugar de simplemente luchar por una mayor participación en un mercado más pequeño.
Sin embargo, Aguiar también defiende que para competir con Nvidia se necesita generar un ecosistema de hardware y optimización de software para dichos equipos, algo en lo que la empresa ha trabajado a lo largo de sus 33 años de historia.
“Eso toma tiempo, no es algo que es tan sencillo desarrollar todas esas plataformas de software”, apunta Aguiar, quien reconoce que si bien existe un camino recorrido donde las empresas competidoras pueden trabajar, señala su principal ventaja: “Desde 2012 hasta 2026 hemos desarrollado muchas capas de software”.
Por lo tanto, emparejar la carrera parece sumamente complejo para Amazon o Google. Desde 2017, Google ha alquilado sus TPU a otras empresas a través de sus servicios de computación en la nube y Anthropic, empresa fundada en 2020, fue la primera a la que le instaló sus chips en un centro de datos que no fuera propiedad de Google.
Amazon, por su parte, comenzó a trabajar en sus chips de IA unos tres años después que Google, y a pesar de que podría parecer un novato en el juego también tiene importantes asociaciones con Anthropic, para la cual adaptó una nueva versión de su chip, Trainium 2, para los centros de datos que se utilizan para entrenar e implementar IA.
Sin embargo, Nvidia no se queda atrás en este tipo de acuerdos. Muestra de ello es que la semana pasada anunció una inversión de 30,000 millones de dólares en OpenAI, mientras que la empresa utilizará gigavatios de capacidad de inferencia dedicada y 2 gigavatios de capacidad de entrenamiento en los sistemas Vera Rubin de Nvidia.
Por lo tanto, concluye Aguiar, a pesar de los avances tecnológicos de otras compañías, el valor de Nvidia se encuentra en su posición de pionero e innovador, pues incluso puede asumir los costos de inversión para la actualización de los chips, un proceso que ya se encuentra en proceso para las dos próximas generaciones de chips de IA y el cual implica inversiones de 5,000 millones de dólares, cada uno, sumas que representan alrededor de la mitad de las ganancias de Google o Amazon en sus divisiones de chips de IA.