Publicidad
Publicidad

La IA que deduce es la nueva gallina de los huevos de oro

La inferencia es la siguiente frontera de la Inteligencia Artificial y es la forma en que la propia tecnología genera datos nuevos y se puede expandir hacia una variedad de usos.
mié 18 junio 2025 04:00 PM
Qué es la inferencia en la IA y por qué es la nueva gallina de los huevos de oro
La inferencia consiste en la capacidad de la IA de razonar y sacar conclusiones de datos nunca antes vistos, es decir, luego del entrenamiento, la herramienta puede detectar patrones y hacer razonamientos similares a las que hace un humano.

Las eras de la Inteligencia Artificial avanzan rápido. En un inicio, la infraestructura tecnológica se centró en recabar miles de millones de datos para después entrenar a los grandes modelos de lenguaje. Ahora, la siguiente fase está centrada en la inferencia, un mercado que será el más redituable de la industria en el futuro cercano y donde las grandes empresas, como AMD o Nvidia pondrán más atención.

¿Qué es la inferencia en la IA?

La inferencia es una de las etapas más importantes para la evolución de la IA como una tecnología transformadora. Consiste en la capacidad de la IA de razonar y sacar conclusiones de datos nunca antes vistos, es decir, luego del entrenamiento, la herramienta puede detectar patrones y hacer razonamientos similares a las que hace un humano.

Existen ejemplos muy diferentes entre sí, pues se puede utilizar en chatbots para generar respuestas “creativas” u “originales” basadas en todo el contexto que un usuario le ha dado durante su interacción o bien se puede usar en coches autónomos, los cuales pueden reconocer señales de “Alto” en zonas por las que nunca había circulado.

Publicidad

Los procesos de inferencia en la IA son importantes porque son la forma en que la propia tecnología genera datos nuevos y se puede expandir hacia una variedad de usos, desde la enseñanza hasta la medicina, además de que impacta en el desarrollo de lo que se ha llamado la Inteligencia Artificial General, es decir, la capacidad de una máquina de aprender cualquier tarea intelectual que un humano puede realizar.

Sin embargo, para tener éxito en el avance de esta etapa es necesario contar con arquitecturas de datos sólidos, pero también con grandes infraestructuras de hardware para entrenar y ejecutar la IA; es por ello que las grandes empresas del sector, como AMD o Nvidia están volteando a este lado.

Inferencia, la nueva gallina de los huevos de oro

De acuerdo con datos compartidos por Lisa Su, directora ejecutiva de AMD en su evento anual Advancing AI, la inferencia de la IA actualmente tiene la misma relevancia que la industria enfocada en el entrenamiento de la tecnología.

Sin embargo, se espera que a partir del próximo año la proporción sea mayor en la inferencia y hacia 2028 se haya convertido en una industria cuyo valor sea de 500,000 millones de dólares.

La razón de este incremento es que la evolución de los modelos de IA implica un aumento en el número de tokens necesarios para dar las respuestas más rápidas, exactas y de calidad, es decir, las empresas están generando nuevas infraestructuras para hacer el proceso mucho más óptimo y asequible para las desarrolladoras.

De acuerdo con el Informe AI Index 2025 del Instituto de IA Centrada en el Humano de la Universidad de Stanford, el costo de inferencia para un sistema que funciona al nivel de GPT-3.5 se redujo más de 280 veces entre noviembre de 2022 y octubre de 2024.

A nivel de hardware, los costos también disminuyeron un 30% anualmente, mientras que la eficiencia energética ha mejorado un 40% cada año, lo cual demuestra el avance de los centros de datos.

No obstante, el éxito de esta industria, se detalla en el documento, se debe a que los modelos, al ser más eficientes, crean más demanda de tokens y las empresas necesitan escalar sus recursos de computación para cumplir con las exigencias de las siguientes generaciones.

Un mercado con un dominador, pero que agrega más opciones

Según analistas de Barclays, el gasto capital para la inferencia más grande y avanzada superará al del entrenamiento en los próximos años pasando de 122,600 millones de dólares en 2025 a 208,200 millones de dólares en 2026.

Y si bien se prevé que Nvidia siga siendo la empresa con la abrumadora mayor parte de la cuota de mercado (alrededor del 90%), existen otras empresas que luchan por competir por una parte del pastel.

Walter Goodwin, fundador de la empresa de chips británica Fractile, declaró que existe una “enorme demanda de mejores chips, más rápidos y eficientes. Los proveedores de computación en la nube están ansiosos por tener algo que elimine la dependencia excesiva de Nvidia”.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad