Publicidad
Publicidad

¿Por qué la inteligencia artificial arrastra todos los errores humanos?

A pesar de que los algoritmos de inteligencia artificial sean capaces de aprender procesos casi a la perfección, tienen riesgo de arrastrar errores humanos.
mié 22 febrero 2017 10:34 AM
Los números son la salvación
Los números son la salvación Todos los datos deben traducirse a modelos matemáticos para evitar la posibilidad de dudas. (Foto: monsitj/Getty Images/iStockphoto)

Si bien un algoritmo de machine learning está diseñado para repetir procesos hasta poder prácticamente tomar decisiones por sí mismo, si de origen, sus datos están sesgados o mal documentados, la máquina corre el riesgo de cometer errores o reflejar vicios no deseados, propios de los humanos que alimentaron dichos procesos.

“Los algoritmos en sí mismos son casi perfectos, pero el riesgo es el error de los datos. Ahí es donde está el sesgo, porque vienen de personas y las personas, todas, están sesgadas de distintas maneras”, advierte Blaise Agüera y Arcas, director de procesos de inteligencia artificial en Google.

Dichas alteraciones en los datos puede manifestarse de distintas formas, unas con mayor gravedad que otras. Puede ser desde el mal funcionamiento de un sistema que supuestamente debe ser inteligente y sin errores hasta interpretaciones sesgadas por el criterio de un humano que reflejan racismo o estereotipos de diferentes tipos, como el machismo.

No obstante, Agüera dice que la única forma de combatir este sesgo y mantener la fiabilidad de los datos con los que se alimentan los sistemas inteligentes es traducir todos los datos a modelos matemáticos que no dejen lugar a la duda.

“Se tiene que usar data para construir modelos de machine learning pero al mismo tiempo estos datos tienen el riesgo de estar sesgados porque lo que se puede convertir en un círculo vicioso. No debe haber espacio para la duda razonable, entonces la única manera de quitarle el sesgo a los datos es contraponerlos a comprobaciones matemáticas. Se debe buscar la precisión y justicia”, dijo.

Derivado de este riesgo, el directivo de origen latino, comenta que si bien la inteligencia artificial y machine learning tendrían el potencial incluso hoy en día de resolver problemas como la desnutrición o la pobreza, asegura que es vital resolver primero la precisión en los datos de origen en los sistemas antes de que la tecnología por sí misma comience a impulsar políticas públicas o leyes.

Publicidad

Actualmente diferentes empresas de tecnología están adoptando machine learning para automatizar procesos desde identificar rostros, cosas y animales en fotografías, entender y reconocer conversaciones humanas hasta lograr que un auto conduzca por sí mismo y tome decisiones en el camino.

“Creo que estas tecnologías tienen el potencial de resolver cualquiera de nuestros grandes problemas como sociedad, lo que no pueden hacer es empujar leyes y políticas. (...) los problemas que tenemos de frente son más humanos que de las máquinas”, dijo.

De otra forma, un riesgo aún mayor es que estos datos sesgados o erróneos impulsen tendencias sociales que vayan en contra del progreso, según el directivo, quien dice que es justo el impacto social mal dirigido, lo que le quita el sueño por las noches.

“Muchas cosas me mantienen despierto, pero me preocupa que la idea de progreso no esté avanzando en el mejor sentido de las cosas. Estamos regresando a temas como el nacionalismo excesivo o la desigualdad, están elevándose de forma tan dramática en los últimos tiempos que veo que van en contra de la narrativa del progreso y creo que la tecnología nos podría ayudar a pasar esos baches sociales que estamos viviendo”, dijo.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad