Publicidad
Publicidad

Google modifica su guía ética de IA y elimina compromiso de no desarrollar armas

La empresa actualizó sus principios en torno a la tecnología y eliminó una sección enfocada en usos nocivos y tareas de vigilancia, entre otras aplicaciones.
mié 05 febrero 2025 10:00 AM
Google modifica su código de ética de IA y elimina compromiso de no desarrollar armas
2018 fue el año en que la compañía publicó por primera vez sus Principios de IA, sin embargo, afirman que la tecnología ha evolucionado rápidamente, por lo que más empresas y gobiernos también son parte de las conversaciones y regulaciones.

No usar tecnologías de formas que “causen o es probable que causen daños generales”. Ese es uno de los principios en torno al desarrollo de la Inteligencia Artificial que Google eliminó de sus compromisos éticos en torno a esta innovación en medio de un “panorama geopolítico cada vez más complejo”.

El martes, la empresa actualizó sus principios de IA y eliminó una sección enfocada en las guías éticas que la compañía se comprometía a asumir respecto a no implementar IA para diferentes usos nocivos, como dañar a otras personas, tareas de vigilancia que violen “normas internacionalmente aceptadas” o tecnologías que contravienen los derechos humanos.

La eliminación de la sección “Aplicaciones que no atendemos” fue detectada por medios especializados en Estados Unidos y se puede comprobar a través de la captura de información que realizó Internet Archive , un repositorio histórico de todas las páginas web de internet.

Publicidad

James Manika, vicepresidente de investigación, laboratorios, tecnología y sociedad, así como Demis Hassabis, director ejecutivo de Google DeepMind, publicaron una entrada de blog donde explicaron las actualizaciones a los principios éticos de la compañía y señalaron que la empresa trabajará para “mitigar resultados no deseados o dañinos y evitar sesgos injustos”.

2018 fue el año en que la compañía publicó por primera vez sus Principios de IA, sin embargo, afirman que la tecnología ha evolucionado rápidamente y ha pasado de ser un tema de nicho a ser algo “omnipresente”, por lo que más empresas y gobiernos también son parte de las conversaciones y regulaciones de esta innovación.

“Existe una competencia global por el liderazgo en materia de IA en un panorama geopolítico cada vez más complejo. Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional”, escribieron.

Por otra parte, los ejecutivos resaltaron que de ahora en adelante la empresa se centrará en tres principios: innovación audaz (desarrollar IA para “ayudar, empoderar, inspirar (...) e impulsar el progreso”), desarrollo e implementación responsables (desde el diseño hasta las pruebas, implementación e iteración) y el progreso colaborativo.

La relación de Google con los ejércitos

A pesar de que los principios de IA de Google señalaban su no participación en desarrollos de armas con esta tecnología, es importante señalar que ha sido parte de contratos militares. En 2018 fue parte del Proyecto Maven, junto al Pentágono de los Estados Unidos, donde se utilizó IA para analizar imágenes de drones.

En el 2021 la división de Google Cloud participó en el Proyecto Nimbus del ejército israelí, a través del cual fue uno de sus principales proveedores de tecnología en la nube para el Departamento de Defensa, algo que molestó a los empleados y provocó protestas en la compañía.

Dichas aplicaciones contradicen la postura que Hassabis dio cuando Google adquirió DeepMind en 2014, pues en una entrevista con Wired dijo que la transacción incluía términos que impedían el uso de la tecnología del laboratorio en aplicaciones militares o de vigilancia.

Cabe resaltar que otras empresas como Meta y OpenAI también permiten que sus tecnologías se utilicen en ciertos casos de uso militar, además de que Amazon, Palantir e incluso Anthropic tienen acuerdos de software con gobiernos para labores de la milicia.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad