Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Google está desmantelando su ética y a nadie parece importarle

Si las pocas personas capaces de auditarlos internamente son censuradas o despedidas, ¿hacia qué tipo de sociedad tecno-vigilada nos dirigimos?, señalan Lê Nguyên Hoang y Philippe Prince-Tritto.
mar 23 marzo 2021 11:58 PM

(Expansión) - Primero Timnit Gebru, y luego Margaret Mitchell, las codirectoras del equipo de ética de la Inteligencia Artificial (IA) de Google, fueron despedidas por razones oscuras. En tres meses, la empresa ha desmantelado literalmente su propia ética. Con indiferencia general.

Después de los primeros artículos en inglés, la cobertura de los medios mexicanos es ridículamente superficial y está completamente ausente de los principales medios de comunicación . Sin embargo, la situación es absolutamente aterradora.

Publicidad

Ética vs. carrera de las IAs

Una posible causa del despido es un artículo del que son coautores Timnit Gebru y Margaret Mitchell, en el que discutieron de manera juiciosa y detenidamente los riesgos asociados a las IAs entrenadas con enormes cantidades de datos procedentes de Internet, como el riesgo de reproducir ideologías racistas, sexistas, extremistas, o discriminatorias hacia las personas con discapacidad.

Google ha quebrantado antes la libertad de sus investigadores. Por ejemplo, ha exigido recientemente la retractación de artículos que cuestionaban la ética de los algoritmos de recomendación, argumentando que sus científicos debían “ dar un tono positivo ” a la investigación. Aunque el artículo ya está disponible, los que trabajan en Google han sido eliminados de la lista de autores .

Mientras tanto, Google continúa su peligrosa carrera por el rendimiento de la IA, anunciando un modelo casi 10 veces mayor que todas sus IAs anteriores . Estos algoritmos aprenden con cantidades colosales de datos, entre los que probablemente se encuentran nuestros correos electrónicos.

Y si Google los implementa a toda prisa, sin ninguna auditoría interna o externa, que es a lo que nos dirigimos, es posible que cuando busquemos información con interés personal, el buscador nos dé una respuesta basada en la lectura de nuestros correos.

Por supuesto, tal vez aún no hayamos llegado a ese punto. Pero el problema es que es imposible saber en qué punto estamos, porque los algoritmos de Google son secretos en su mayor parte. Si las pocas personas capaces de auditarlos internamente son censuradas o despedidas al menor cuestionamiento, ¿hacia qué tipo de sociedad tecno-vigilada nos dirigimos?

Los cientos de millones de recomendaciones dudosas sobre temas como la vacunación o el cáncer son, en sí mismas, problemáticas, porque habrían causado indirectamente malas decisiones y con ello posiblemente la muerte de cientos o miles de personas. Y todo esto sin contar con los problemas de radicalización política , cuyas espectaculares y aterradoras consecuencias vimos durante los disturbios del Capitolio o los impactos ambientales de los gigantescos modelos de IA.

 
Una nueva ley en Australia obligará a Google y Facebook a pagar a la prensa por sus contenidos

A nadie parece importarle

La petición que exigía garantías de integridad en la investigación y más libertad académica dentro de Google sólo recibió 4,302 firmas externas . Esta cifra es irrisoria. Y lo especialmente preocupante es que, aunque hubiera una cobertura mediática seria del tema, seguida de una movilización ciudadana con mayor conciencia política, probablemente Google lo haya anticipado y haya considerado que sería un costo menor en comparación con los beneficios de desmantelar su equipo de ética de las IAs.

Debido a la ausencia de legislación aplicable a los algoritmos, la falta de voluntad política y de medios coercitivos, Google se permite ignorar los derechos humanos. En consecuencia, la ética de las IAs está domesticada. Se limita a ser un sucedáneo moral, una ethics washing sin nada vinculante.

La claridad debe imponerse: con la pasividad actual estamos consolidando las condiciones perfectas para la implementación apresurada de algoritmos ultra peligrosos, que podrían avivar aún más la desinformación médica, las teorías conspirativas , la manipulación social, la adicción digital , la discriminación en los resultados de búsquedas, la divulgación indirecta de datos personales o el consumo irrazonable de energía .

Si algunas iniciativas de ley parecen tomarse en serio la falta de regulación de los gigantes de la web, como la del Senador Monreal Ávila , que pretende proteger la libertad de expresión de los usuarios de redes sociales, paradójica y dramáticamente olvidan que el peligro actual reside en la capacidad de los algoritmos para propagar información potencialmente peligrosa.

Lamentablemente a la clase política le cuesta percibir con claridad el peligro de los sistemas que analizan y distribuyen nuestros datos, y entender la necesidad de medidas eficaces sobre la auditoría externa de los algoritmos privados, sancionada con un bloqueo nacional en caso de incumplimiento. Y cuando evocan la ética de los actores digitales es con una desoladora tibieza al enunciar medidas de adopción voluntaria al contenido de un vacío abismal.

Europa nos ha mostrado el camino en materia de protección de datos personales , y recientemente Australia en materia de financiación de los medios de comunicación. En vez de heredar el problema a futuras legislaturas, ¿y si México diera el ejemplo en exigir transparencia a los actores digitales?

Nota del editor: Lê Nguyên Hoang es Investigador en Informática - Escuela Politécnica Federal de Lausana. Philippe Prince-Tritto es Investigador en Derecho e IA - Universidad Panamericana. Las opiniones publicadas en esta columna pertenecen exclusivamente a los autores.

Consulta más información sobre este y otros temas en el canal Opinión

 
Publicidad
Publicidad