James Manika, vicepresidente de investigación, laboratorios, tecnología y sociedad, así como Demis Hassabis, director ejecutivo de Google DeepMind, publicaron una entrada de blog donde explicaron las actualizaciones a los principios éticos de la compañía y señalaron que la empresa trabajará para “mitigar resultados no deseados o dañinos y evitar sesgos injustos”.
2018 fue el año en que la compañía publicó por primera vez sus Principios de IA, sin embargo, afirman que la tecnología ha evolucionado rápidamente y ha pasado de ser un tema de nicho a ser algo “omnipresente”, por lo que más empresas y gobiernos también son parte de las conversaciones y regulaciones de esta innovación.
“Existe una competencia global por el liderazgo en materia de IA en un panorama geopolítico cada vez más complejo. Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional”, escribieron.
Por otra parte, los ejecutivos resaltaron que de ahora en adelante la empresa se centrará en tres principios: innovación audaz (desarrollar IA para “ayudar, empoderar, inspirar (...) e impulsar el progreso”), desarrollo e implementación responsables (desde el diseño hasta las pruebas, implementación e iteración) y el progreso colaborativo.
La relación de Google con los ejércitos
A pesar de que los principios de IA de Google señalaban su no participación en desarrollos de armas con esta tecnología, es importante señalar que ha sido parte de contratos militares. En 2018 fue parte del Proyecto Maven, junto al Pentágono de los Estados Unidos, donde se utilizó IA para analizar imágenes de drones.
En el 2021 la división de Google Cloud participó en el Proyecto Nimbus del ejército israelí, a través del cual fue uno de sus principales proveedores de tecnología en la nube para el Departamento de Defensa, algo que molestó a los empleados y provocó protestas en la compañía.
Dichas aplicaciones contradicen la postura que Hassabis dio cuando Google adquirió DeepMind en 2014, pues en una entrevista con Wired dijo que la transacción incluía términos que impedían el uso de la tecnología del laboratorio en aplicaciones militares o de vigilancia.
Cabe resaltar que otras empresas como Meta y OpenAI también permiten que sus tecnologías se utilicen en ciertos casos de uso militar, además de que Amazon, Palantir e incluso Anthropic tienen acuerdos de software con gobiernos para labores de la milicia.