En este punto de 2025, la Inteligencia Artificial (IA) ya es capaz de analizar muy rápidamente inmensas bases de datos para detectar las respuestas con mayor probabilidad de relevancia y, además, “reflexionar” en distintas capas sobre sus propias resoluciones. En otras palabras, imita de forma muy eficiente los procesos intuitivos y racionales del pensamiento humano. A escala organizacional, su adopción dejó de ser marginal: en 2024, alrededor de 65% de las empresas encuestadas reportaron usar IA generativa de forma regular.
¿Qué sigue? Continuando el símil con los sistemas biológicos, el siguiente paso es replicar nuestra capacidad creativa. Para este avance, la IA necesita 1) ciclar de forma autónoma qué tanto explora nuevas ideas disruptivas o se queda con lo que sabe y cuánto reflexiona con base en utilidad, y 2) ajustar continuamente sus “sistemas de creencias” (priors). Con esta actualización, teóricamente, una IA podría realizar órdenes (prompts) como, por ejemplo: “Haz un negocio digital que genere 1 millón de dólares al mes”.
Si además multiplicamos su alcance con interfaces robóticas capaces de interactuar con el entorno físico, las posibilidades —positivas y negativas— se multiplican. La investigación en “modelos visión-lenguaje-acción” (como RT-2) ya conecta comprensión de lenguaje con destrezas motoras; y alianzas entre laboratorios de IA y fabricantes de humanoides muestran prototipos conversacionales que ejecutan tareas en entornos reales. Es un campo temprano, pero la curva de aprendizaje es clara.
Y, en este punto, aún ni siquiera consideramos el aumento potencial que significaría la computación cuántica; una tecnología en rápida evolución que podría hacer parecer a las computadoras actuales calculadoras primitivas. Las últimas hojas de ruta y resultados apuntan a sistemas tolerantes a fallos hacia finales de la década, con progresos concretos en corrección de errores. De materializarse, ciertas tareas de optimización y simulación —incluidas algunas relevantes para IA— podrían acelerarse drásticamente. Al mismo tiempo, la demanda energética del entrenamiento de modelos de frontera crece: se proyecta que el consumo eléctrico de los centros de datos más que duplicará hacia 2030, impulsado en gran medida por cargas de trabajo de IA.
En algún punto de este gradual, pero veloz, andar surgirá la Superinteligencia Artificial y muchos expertos coinciden en que nos daremos cuenta hasta que esté completamente consolidada en todos los niveles de la experiencia humana. Es decir, ya será parte de nuestro día a día realizando tareas tanto repetitivas como intelectuales a través de una gama muy amplia de objetos, como teléfonos, autos, computadoras, refrigeradores, escritorios, relojes, televisiones, robots, bocinas y hasta implantes neurales (como Neuralink, que ya son una realidad). Con esta interconexión omnipresente, la capacidad de coordinarse entre agentes y la codependencia generada en cada organización y persona, los sistemas económicos, políticos y culturales se redefinirán en tiempo récord.
Consecuentemente, la inevitable pregunta es: ¿esto es “bueno” o “malo”? La realidad es que nadie puede decirlo con certeza; en este momento puede ir hacia cualquier lado: un mundo donde la evolución es atesorada y alimentada con una humanidad mucho más creativa, o un planeta donde el egoísmo del Homo sapiens sea mimetizado por su progenie silícea, llevándolo a su propia desaparición.
Sin embargo, con cada decisión en tiempo presente se define, más contundentemente que nunca, el rumbo que seguirán los sistemas económicos, políticos, sociales, culturales y hasta psicológicos en el corto, mediano y largo plazo.
Por esta razón, es urgente dotar la construcción de estas tecnologías de un propósito mucho más trascendente que hacer dinero para empresas privadas o del Estado, competir por la atención de más usuarios o consolidar una posición geopolítica. Ya existen brújulas de referencia: la Ley de IA de la Unión Europea entró en vigor en 2024 con aplicación gradual; la Asamblea General de la ONU adoptó en 2024 su primera resolución sobre IA segura, confiable y centrada en las personas; y, en 2023, 28 países firmaron la Declaración de Bletchley para cooperar en la seguridad de sistemas de frontera.