Publicidad

Síguenos en nuestras redes sociales:

Publicidad

¿Qué hay detrás de la salida de Timnit Gebru de Google?

Como usuario de Internet, en los últimos años he notado cómo día con día se exacerba un lenguaje de odio, intolerancia, ideas radicales que no permiten una opinión en contra, opina Javier Murillo.
mar 22 diciembre 2020 12:01 AM

(Expansión) – Las tres leyes de la robótica que Isaac Asimov, precursor de la Inteligencia Artificial (IA), heredó, y que dan vuelta por mi mente tras enterarme del caso Timnit Gebru son: 1. Un robot no debe dañar a un ser humano, o por su inacción, dejar que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes están en oposición con la primera ley. 3. Un robot debe proteger su propia existencia, hasta donde esta protección no esté en conflicto con la primera o segunda leyes.

Timnit era, nada más y nada menos, que la colíder del equipo de Inteligencia Artificial Ética de Google hasta el pasado 2 de diciembre cuando se rompió la relación laboral; ella acusó despido, mientras que la empresa aseguró que su empleada renunció. Con el transcurso de los días, se conoció que la experta había elaborado, junto con su equipo de trabajo, un artículo de divulgación en donde cuestionaba el costo ambiental del desarrollo de la IA; además, a la par, advertía sobre los sesgos que podrían generarse en un análisis desigual de datos, y esto último habría sido el detonante del desencuentro con el gigante de Internet.

Publicidad

Y es que, con el modelo actual de Google, el lenguaje artificial se alimenta y entrena con base en la enorme cantidad de datos que, como usuarios, regalamos con cada correo, hoja de texto, cálculo y hasta cada googleo. No obstante, estamos tan inmersos en nuestras actividades cotidianas, tenemos tan a la mano el teléfono móvil, las redes sociales, Siri, Alexa, Cortana (sí, acá aún no entra la equidad de género y se debe subrayar) que parece que no hay tiempo para hacernos conscientes de que hay una grandísimo número de personas para quienes no existe Internet, sencillamente porque no tienen medios para ingresar a él, ya sea por falta de conectividad, recursos económicos, energía eléctrica, amén de aquellos ausentes a raíz de la brecha generacional y tecnológica.

En este contexto, ¿cuáles son los riesgos de que empresas tecnológicas como Google desarrollen IA que margina a los ya de por sí marginados? Eso parece estar detrás del caso Timnit Gebru, si su versión de despido es lo que en realidad sucedió, más allá de sólo considerar que fue desestimada por su color de piel, su género y sus ideas de inclusión. Su salida parecería ejemplificar justamente lo que Google hace con quien no está en sintonía con sus ideas: acallarlo.

El relato sobre la razón para la separación de su cargo se ve reforzada ante el respaldo de más de 2,695 googlers, quienes conocen las entrañas de ese monstruo, y 4,302 partidarios académicos, de la industria y de la sociedad civil, que alzan la voz para exigir que Google cumpla con los principios que estableció para el desarrollo de IA, y en los que reconoce que generan un gran impacto en la sociedad.

Lo ocurrido con Timnit abrió el debate mundial entre los especialistas sobre la urgencia de tener instrumentos que regulen los alcances del desarrollo científico y tecnológico respecto a la IA, a fin de que tanto instituciones públicas como privadas tengan presente que todo avance conlleva beneficios, pero también riesgos.

Como usuario de Internet, en los últimos años he notado cómo día con día se exacerba un lenguaje de odio, intolerancia, ideas radicales que no permiten una opinión en contra. En cada clic, hay cientos de mensajes que se replican de forma reiterada a través de cuentas creadas específicamente para ese fin. También compruebo cómo Google, Facebook, Twitter, y hasta Tik Tok deciden qué información debo conocer, qué debo comprar, a quién tengo o no que seguir, y hasta a qué hora y qué debo comer. Sin embargo, asumo el costo a cambio de una sensación de comodidad inmediata.

Publicidad
Conoce las estrategias de home office que usan Facebook, Google y Linkedin

El caso Timnit me hizo pensar que es real. Sí: se construye un modelo de IA con las ideas que surgen de los sectores más favorecidos, lo que agranda la barrera de la desigualdad. Hay un modelo en progreso que a futuro podría atentar contra las minorías cuyas voces estarán cada vez más apagadas, y eso es lo que debería encender las alarmas para fomentar un debate que derive en una correcta regulación, anteponiendo principios éticos y jurídicos.

En Yo Robot, Isaac Asimov advierte que la psicología del robot está muy lejos de ser perfecta porque, a pesar de todas las complejidades introducidas en el cerebro de un robot, éste está construido por los humanos y, por lo tanto, está conformado de acuerdo con los valores de éstos.

Con base en esa premisa, quizá es tiempo de cuestionarnos ¿cuáles son en la actualidad nuestros valores y cuáles queremos que prevalezcan en el futuro?

Nota del editor: Javier Murillo Acuña es fundador y presidente de Metrics. Científico de datos, experto en tecnologías de la información aplicadas a la transformación de modelos de negocio digitales. Actualmente trabaja en el desarrollo de algoritmos de prospectiva y medición de valor de marca para empresas globales. Síguelo en LinkedIn y/o escríbele a javier@metrics.digital. Las opiniones publicadas en esta columna pertenecen exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad