Google está desmantelando su ética y a nadie parece importarle

Si las pocas personas capaces de auditarlos internamente son censuradas o despedidas, ¿hacia qué tipo de sociedad tecno-vigilada nos dirigimos?, señalan Lê Nguyên Hoang y Philippe Prince-Tritto.

(Expansión) - Primero Timnit Gebru, y luego Margaret Mitchell, las codirectoras del equipo de ética de la Inteligencia Artificial (IA) de Google, fueron despedidas por razones oscuras. En tres meses, la empresa ha desmantelado literalmente su propia ética. Con indiferencia general.

Después de los primeros artículos en inglés, la cobertura de los medios mexicanos es ridículamente superficial y está completamente

. Sin embargo, la situación es absolutamente aterradora.

Ética vs. carrera de las IAs

Una

es un del que son coautores Timnit Gebru y Margaret Mitchell, en el que discutieron de manera juiciosa y detenidamente los riesgos asociados a las IAs entrenadas con enormes cantidades de datos procedentes de Internet, como el riesgo de reproducir ideologías racistas, sexistas, extremistas, o discriminatorias hacia las personas con discapacidad.

Google ha quebrantado antes la libertad de sus investigadores. Por ejemplo, ha exigido recientemente la retractación de artículos que cuestionaban la ética de los algoritmos de recomendación, argumentando que sus científicos debían “

” a la investigación. Aunque el artículo ya está disponible, los que trabajan en Google han sido .

Mientras tanto, Google continúa su

por el rendimiento de la IA, anunciando un modelo casi . Estos algoritmos aprenden con cantidades colosales de datos, entre los que probablemente se encuentran nuestros correos electrónicos.

Y si Google los implementa a toda prisa, sin ninguna auditoría interna o externa, que es a lo que nos dirigimos, es posible que cuando busquemos información con interés personal, el buscador nos dé una respuesta basada en la lectura de nuestros correos.

Por supuesto, tal vez aún no hayamos llegado a ese punto. Pero el problema es que es imposible saber en qué punto estamos, porque los algoritmos de Google son secretos en su mayor parte. Si las pocas personas capaces de auditarlos internamente son censuradas o despedidas al menor cuestionamiento, ¿hacia qué tipo de sociedad tecno-vigilada nos dirigimos?

Los cientos de millones de recomendaciones dudosas sobre temas como la vacunación o el cáncer son, en sí mismas, problemáticas, porque habrían causado indirectamente malas decisiones y con ello posiblemente la muerte de cientos o miles de personas. Y todo esto sin contar con los

, cuyas espectaculares y aterradoras consecuencias vimos durante los o los de los gigantescos modelos de IA.

Una nueva ley en Australia obligará a Google y Facebook a pagar a la prensa por sus contenidos

A nadie parece importarle

La petición que exigía garantías de integridad en la investigación y más libertad académica dentro de Google sólo recibió

. Esta cifra es irrisoria. Y lo especialmente preocupante es que, aunque hubiera una cobertura mediática seria del tema, seguida de una movilización ciudadana con mayor conciencia política, probablemente Google lo haya anticipado y haya considerado que sería un costo menor en comparación con los beneficios de desmantelar su equipo de ética de las IAs.

Debido a la ausencia de legislación aplicable a los algoritmos, la falta de voluntad política y de medios coercitivos, Google se permite ignorar los derechos humanos. En consecuencia, la ética de las IAs está domesticada. Se limita a ser un sucedáneo moral, una ethics washing sin nada vinculante.

La claridad debe imponerse: con la pasividad actual estamos consolidando las condiciones perfectas para la implementación apresurada de algoritmos ultra peligrosos, que podrían avivar aún más la desinformación médica, las

, la manipulación social, la , la discriminación en los resultados de búsquedas, la o el .

Si algunas iniciativas de ley parecen tomarse en serio la falta de regulación de los gigantes de la web, como la del

, que pretende proteger la libertad de expresión de los usuarios de redes sociales, paradójica y dramáticamente olvidan que el peligro actual reside en la capacidad de los algoritmos para propagar información potencialmente peligrosa.

Lamentablemente a la clase política le cuesta percibir con claridad el peligro de los sistemas que analizan y distribuyen nuestros datos, y entender la necesidad de medidas eficaces sobre la auditoría externa de los algoritmos privados, sancionada con un bloqueo nacional en caso de incumplimiento. Y cuando evocan la

es con una desoladora tibieza al enunciar medidas de adopción voluntaria al contenido de un vacío abismal.

Europa nos ha mostrado el camino en materia de

, y en materia de financiación de los medios de comunicación. En vez de heredar el problema a futuras legislaturas, ¿y si México diera el ejemplo en exigir transparencia a los actores digitales?

Nota del editor:

es Investigador en Informática - Escuela Politécnica Federal de Lausana. es Investigador en Derecho e IA - Universidad Panamericana. Las opiniones publicadas en esta columna pertenecen exclusivamente a los autores.