Publicidad
Publicidad

La IA estuvo detrás de la muerte del científico Mohsen Fakhrizadeh

El uso de tecnología de punta en conflictos no es nuevo, sin embargo un informe del NYT apunta a que el uso de inteligencia artificial y robótica estuvo detrás de esta muerte.
mar 21 septiembre 2021 05:00 PM
Detalle del ojo de una mujer.
iStock

El uso de tecnología por parte de la milicia u otros sectores de inteligencia no es una novedad, sin embargo un caso reciente pone en discusión la necesidad de regular a la inteligencia artificial en torno a los alcances que empieza a tener. De acuerdo con un reporte del medio The New York Times, Israel está detrás del asesinato del importante científico nuclear iraní Mohsen Fakhrizadeh, sucedido el 27 de noviembre de 2020.

Pero además de estar detrás de esta operación, el medio indica que se utilizó una ametralladora asistida por Inteligencia Artificial (IA), donde ataque humano y tecnología se auxiliaron para tener una misión exitosa.

Aunque no se ha probado el uso de reconocimiento facial, sí fue un ataque preciso.

Publicidad

Hasta ahora, ninguno de los gobiernos, ni Irán e Israel, han confirmado públicamente el uso de una pistola robótica, pero la investigación del medio estadounidense se basa en lo que ha recopilado con fuentes que eran familia de Fakhrizadeh. Y también representa una antesala para discutir los alcances de este tipo de tecnología y el futuro del espionaje por parte de grupos militares y de inteligencia.

Además, los asesinos ahora pueden usar la robótica para eliminar objetivos con poco riesgo para ellos mismos, pocas advertencias a los enemigos y una mayor probabilidad de negación.

El uso de IA por parte del Pentágono

Sumado a esta noticia, hace unos días el medio especializado en tecnología, The Wire, indicó que decenas de drones militares y robots parecidos a tanques volaron por los cielos y las carreteras a 40 millas al sur de Seattle, donde su misión era encontrar terroristas sospechosos de esconderse entre varios edificios.

La misión fue solo un ejercicio organizado por la Agencia de Proyectos de Investigación Avanzada de Defensa, una división de investigación del Pentágono; los robots estaban armados con nada más letal que transmisores de radio diseñados para simular interacciones con robots amigos y enemigos.

El simulacro fue uno de varios realizados el verano pasado para probar cómo la IA podría ayudar a expandir el uso de la automatización en sistemas militares, incluso en escenarios que son demasiado complejos y rápidos para que los humanos tomen todas las decisiones críticas.

Las demostraciones también reflejan un cambio sutil en el pensamiento del Pentágono sobre las armas autónomas, ya que se vuelve más claro que las máquinas pueden superar a los humanos al analizar situaciones complejas o al operar a alta velocidad, de acuerdo con el medio.

Ante este tipo de panorama ya han empezado a surgir iniciativas de control. Un informe presentado por la Comisión de Seguridad Nacional de Inteligencia Artificial (NSCAI), un grupo asesor creado por el Congreso de EU, recomendó, entre otras cosas, que el país dirigido por Joe Biden se revise una prohibición internacional del desarrollo de armas autónomas.

Y en el caso de las tecnológicas, hace unos años Google enfrentó protestas de empleados y protestas públicas después de suministrar tecnología de IA a la Fuerza Aérea a través de un proyecto conocido como Maven .

Publicidad

Tags

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad