Publicidad
Revista Digital
Publicidad

El reto de un uso eficiente de la IA, ¿quién tiene la última palabra?

La rápida evolución de la Inteligencia Artificial transforma la forma en que se analizan conflictos, se anticipan amenazas y, potencialmente, se toman decisiones críticas en contextos de guerra.
vie 27 marzo 2026 06:03 AM
El reto de un uso eficiente de la IA, ¿quién tiene la última palabra?
Un algoritmo optimiza resultados. Si un modelo concluye que un ataque preventivo incrementa la probabilidad de supervivencia estratégica, puede considerar esa opción como lógica, incluso si sus consecuencias fueran devastadoras para millones de personas, apunta Fernando Guarneros. (Foto: iStock)

Durante décadas, la tecnología militar avanzó bajo un principio claro: las máquinas podían ampliar las capacidades humanas, pero la decisión final sobre el uso de la fuerza permanecía en manos de las personas. Ese equilibrio comienza a cambiar. La rápida evolución de la Inteligencia Artificial (IA) está transformando la forma en que se analizan los conflictos, se anticipan amenazas y, potencialmente, se toman decisiones críticas en contextos de guerra.

Publicidad

En los últimos años, varios centros de investigación han estudiado cómo se comportan los sistemas avanzados de la IA en escenarios de crisis geopolítica. Un estudio publicado el pasado 17 de febrero, dirigido por el profesor Kenneth Payne del Departamento de Estudios de Defensa de King’s College London , analizó el comportamiento de modelos de lenguaje avanzados en simulaciones de crisis nucleares.

El objetivo era entender cómo estos sistemas razonan cuando deben tomar decisiones bajo presión extrema. Para lograrlo, los investigadores diseñaron una serie de simulaciones de juegos de guerra en las que distintos modelos debían competir dentro de escenarios de crisis entre potencias rivales. Los resultados fueron reveladores: ninguno de los sistemas analizados contempló la rendición como alternativa viable. Por el contrario, la tendencia dominante fue escalar el conflicto mediante respuestas cada vez más agresivas.

Más preocupante aún fue el tratamiento que varios modelos dieron al uso de armas nucleares. En lugar de considerarlas un recurso moralmente inaceptable o un último paso antes de la destrucción mutua —una lógica que ha marcado el pensamiento estratégico desde 1945—, algunos sistemas las evaluaron simplemente como una opción estratégica dentro de un cálculo racional de poder.

Para Payne, estos hallazgos resultan “aleccionadores”, porque revelan una forma emergente de lo que denomina “psicología de las máquinas” en escenarios de crisis.

El razonamiento de las máquinas

Conviene subrayar un punto clave: las máquinas no desean destruir ni conquistar. No poseen voluntad, emociones ni ambición política. Sin embargo, su razonamiento carece de elementos profundamente humanos que históricamente han moldeado las decisiones sobre la guerra: el miedo a la aniquilación, la memoria colectiva de conflictos pasados o la empatía frente al sufrimiento humano que implica cualquier enfrentamiento armado.

Un algoritmo optimiza resultados. Si un modelo concluye que un ataque preventivo incrementa la probabilidad de supervivencia estratégica, puede considerar esa opción como lógica, incluso si sus consecuencias fueran devastadoras para millones de personas.

Publicidad

Este fenómeno no se limita a ejercicios académicos. Diversos informes de centros de investigación en seguridad señalan que la IA ya interviene en múltiples tareas dentro del ámbito militar. Entre ellas se encuentran el análisis de imágenes satelitales, la identificación automática de objetivos, la navegación de drones y la coordinación de operaciones complejas en tiempo real.

Uno de los ejemplos más visibles es el desarrollo de enjambres de drones autónomos. A diferencia de los vehículos no tripulados tradicionales, que requieren supervisión constante, estos sistemas pueden coordinarse mediante algoritmos que distribuyen funciones entre múltiples unidades, adaptan estrategias durante una misión y reaccionan a cambios en el entorno en cuestión de segundos.

La tecnología como acelerador de conflictos; las dos caras de la moneda

La IA también está transformando otros aspectos de la guerra moderna. Desde sistemas de vigilancia que analizan grandes volúmenes de datos hasta herramientas capaces de identificar patrones en movimientos militares, la tecnología está acelerando el ritmo del conflicto.

A esto se suman nuevas formas de guerra híbrida: operaciones de desinformación impulsadas por IA, campañas de manipulación digital mediante contenido sintético o ataques cibernéticos cada vez más sofisticados.

Para América Latina, este puede parecer distante, pero sería un error interpretarlo así. Si bien la región no es una potencia militar global, sí forma parte de un ecosistema geopolítico profundamente interconectado. Sus infraestructuras críticas —puertos, redes energéticas, sistemas financieros, telecomunicaciones— dependen cada vez más de tecnologías digitales que también se han convertido en objetivos estratégicos.

Además, el acceso a herramientas de IA se ha ampliado de forma notable. Lo que hace apenas unos años exigía inversiones multimillonarias y laboratorios altamente especializados, hoy puede desarrollarse mediante infraestructuras en la nube, bibliotecas de software abiertas y modelos accesibles al público. Esta democratización tecnológica acelera la innovación, pero también reduce las barreras de entrada para el desarrollo de capacidades avanzadas.

Publicidad

En este contexto, el desafío no es únicamente tecnológico; también es profundamente jurídico y ético. Cuando un algoritmo identifica un objetivo y ejecuta una acción letal de manera autónoma, la cadena de responsabilidad se vuelve difusa y surgen preguntas inevitables como: ¿Quién responde ante un error? ¿El programador que diseñó el sistema? ¿El comandante que autorizó su despliegue? ¿El Estado que lo adquirió o lo puso en operación?

Estas interrogantes evidencian que los marcos legales actuales fueron concebidos para decisiones humanas, no para sistemas capaces de actuar a partir de cálculos algorítmicos.

El gran reto

Sin embargo, el debate no debe centrarse en frenar el desarrollo tecnológico. La IA no es, por naturaleza, peligrosa. Bien utilizada, puede fortalecer la defensa, mejorar las capacidades de ciberseguridad y contribuir a la protección de infraestructuras críticas.

El verdadero desafío radica en establecer límites claros, mecanismos de responsabilidad y modelos de gobernanza adecuados. Porque, en última instancia, la cuestión fundamental no es qué tan avanzadas se vuelvan las máquinas, sino quién tendrá la última palabra cuando un sistema concluya que atacar es la opción más eficiente.

_____

Nota del editor: Fernando Guarneros es Director de Operaciones en IQSEC. Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad