Los responsables somos los humanos
Para que la inteligencia artificial sea eficiente se necesitan dos materias primas: algoritmos y datos. El algoritmo da las instrucciones para la máquina y los datos permiten que esa máquina aprenda a usar esas instrucciones y mejore su uso. No, no son realmente independientes y autónomos… porque comienzan con nosotros: los seres humanos. Somos las personas quienes generamos los algoritmos, los datos y quienes programamos la inteligencia artificial. Y, ¿qué sucede si esas personas tienen sesgos? La IA también los tendrá. Es como educar a un bebé.
Los libros y canciones reflejan los sesgos de sus autores. En la IA, al igual que en estos ejemplos, los conjuntos de datos tienen a sus programadores. Los datos se recopilan de acuerdo con las instrucciones de las personas. Al programar los algoritmos, las personas muestran sus prejuicios, sus opiniones, sus sesgos.
Cuando hablamos de sesgo en IA, hablamos de prejuicios, de concepciones de la realidad por las cuales tomamos decisiones de forma consciente o inconsciente. Por lo tanto, es necesario destacar el papel que poseen todas aquellas personas que trabajan con estos algoritmos y hacer conciencia sobre el impacto que tienen.
¿Recuerdan que hace poco más de un año Twitter tenía un algoritmo que favorecía la promoción de las imágenes de personas blancas, delgadas y jóvenes por sobre la de una que no lo es? Claro que no era intencional, esto lo hacía la red social sistemáticamente por los algoritmos que tenía programados. ¿Qué ocurría si un hombre blanco y uno negro aparecían en una misma imagen? La previsualización enfocaba al hombre blanco. Lo mismo sucedía en las búsquedas.
¿Por qué debería importarme?
Hoy esta tecnología ayuda a decidir lo que para alguien puede significar un cambio de vida. Por ejemplo, quién tiene derecho a un préstamo bancario o a un seguro de vida, qué tratamiento médico debe recibir una persona o quién puede acceder a un puesto de trabajo. Si existen los sesgos, las minorías subrepresentadas tienen mayor probabilidad de salir perdiendo.
En 2014 un equipo de ingenieros de software de Amazon construyó un programa para revisar currículums. En 2015 se dieron cuenta de que el algoritmo discriminaba a las mujeres para los puestos técnicos. El objetivo de Amazon había sido facilitar la búsqueda del mejor talento. Esta herramienta, basándose en los datos de los últimos 10 años, ‘aprendió’ que los hombres eran “preferibles”, ya que eran los hombres quienes más se postulaban a este tipo de puesto. El equipo de Recursos Humanos se preguntó por qué sólo recibía perfiles masculinos, entendió y corrigió.