En el caso de los sistemas de IA que se están utilizando para ayudar a las compañías a reclutar talento se está gestando un temor fundado en que pueden existir sesgos que evitan el cierre de las brechas de género, raciales o generacionales en este intento por crear equipos inclusivos y no discriminatorios de trabajo.
Es muy comprensible, pues como humanos no hemos logrado cerrar estas brechas, desde que comenzó la era de las corporaciones hemos visto que estos sesgos permean y la inclusión y diversidad son difíciles de combatir.
Ahora, con estos recursos, estamos delegando estas tareas a algoritmos, que, con ayuda del machine learning, son entrenados por humanos para gestionar la revisión de currículums y videoentrevistas y que se incorporan con soluciones de gamificación para reconocer aptitudes, entre otras tareas.
Lo que sucede es que los algoritmos que componen un sistema de IA, que son entrenados por personas, suelen seguir los malos juicios de dichas personas. Para que esto no suceda, los “procesos de entrenamiento” para evitar sesgos deben ser extremadamente meticulosos y deben robustecerse con validaciones y pruebas de sustento científico para que desde un inicio la IA siga principios de igualdad, diversidad e inclusión.
El juego de video https://www.survivalofthebestfit.com fue creado con la idea de explicar cómo funcionan estos algoritmos y cómo en el intento las cosas pueden salir mal. Jugándolo se muestra de forma gráfica lo que sucede cuando los algoritmos evolucionan más rápido con los miles de datos que reciben y no se toman las medidas necesarias para combatir sesgos, desde la selección de la data hasta su procesamiento.
Hay muchas cosas que se pueden hacer para asegurar que los algoritmos están siendo entrenados en diversidad. La primera y más básica es proporcionando desde el inicio diversidad en las muestras de entrenamiento, por ejemplo, usando la misma cantidad de muestras de audio y video femeninas y masculinas.
Otra es observando que las personas que etiquetan las muestras provengan de diversos orígenes, de esta manera se anima a los equipos de machine learning a medir diferentes categorías demográficas identificando así cuando una se trata de manera desfavorable.