Publicidad
Publicidad

Cuando la inteligencia artificial falla, ¿quién es el culpable?

El desarrollo y crecimiento de la inteligencia artificial no solo ha creado grandes avances, también ha demostrado ser altamente errónea, equivocada y hasta racista.
lun 20 mayo 2019 06:00 AM
Big data and artificial intelligence concept.
52% de los líderes de negocios no confían en las decisiones de los sistemas de IA.

TOKIO, JAPÓN (Expansión).- En octubre de 2018, Amazon tuvo que detener el uso de un motor de inteligencia artificial dedicado a filtrar candidatos para vacantes dentro del gigante de eCommerce, el algoritmo funcionaba de maravilla solo que tenía un problema: detestaba a las mujeres.

“En años recientes los desarrollos de IA han creado soluciones novedosas a problemas humanos reales y su crecimiento; sin embargo, también traen una serie de posibilidades de las cuales no podemos medir las consecuencias, por eso en Fujitsu estamos proponiendo una nueva forma de sistemas de inteligencia artificial que no sólo den resultados, sino que expliquen al ser humano cómo llegaron a ellos”, comentó Hirotaka Hara, presidente de Fujitsu.

Al ser cuestionado sobre dónde debería residir la responsabilidad cuando un sistema de inteligencia artificial falla o se vuelve imparcial, Hara comentó a Expansión que “ese es uno de los debates más complejos en la actualidad en el que aún no hay respuestas claras”.

Recomendamos: ¿Cuál es el futuro de la inteligencia artificial en un país como México?

¿Deben ser las empresas tecnológicas como Google, Fujitsu, Microsoft o Amazon que desarrollan las plataformas de inteligencia artificial? ¿Deben ser las empresas que buscan desarrollar nuevos servicios, productos, curar el cáncer o incluso evitar el cambio climático? o ¿Deben ser los usuarios finales que pueden llegar a mal utilizar los sistemas, llenándolos de información que busque corromper su comportamiento?

“No tenemos la respuesta, yo creo que por ahora esa responsabilidad debería caer en las empresas que usan los sistema de IA. Por ejemplo, nosotros trabajamos con centros de medicina pero son los médicos los que al final del día deberían dar el visto bueno final sobre los resultados que la inteligencia artificial entregue”, comentó Hara.

Publicidad

Sin embargo, el ejecutivo reconoció que como creadores las tecnológicas sí deben ser corresponsables de las empresas con la que trabajan, los contratos que se hacen y el uso.

“Es debate global al que nadie la ha encontrado respuesta, incluso es uno en el que los gobiernos tendrán que involucrarse”, dijo.

Te interesa: La Inteligencia Artificial cambiará el rumbo de los electrodomésticos caseros

A fin de tratar de abrir una mesa de debate, la firma japonesa de la mano de entidades como la universidad de Oxford creó Fujitsu Group AI Commitment, un grupo con cinco eje centrales de trabajo: Dar valor a la sociedad con IA, centrada en el ser humano, sostenible con los cambios sociales, que respete las decisiones humanas y que tenga un énfasis en la transparencia y la responsabilidad.

Fujitsu no es la única firma ha trabajado en la creación de reglas o compromisos alrededor del desarrollo de la inteligencia artificial, firmas como Microsoft, Google y Amazon también cuentan con procesos de imparcialidad y organizaciones como The Partnership on AI, buscan crear reglas claras o procesos de control a fin de evitar el crecimiento de sistemas con prejuiciosos o incluso más peligrosos.

Aprender a confiar en una máquina

Aunque los algoritmos de machine learning se han vueltos expertos en reconocer gatos de perros y otros animales, lugares, rostros y género humano o incluso en procesar idiomas, aún existe un enorme camino para comenzar confiar en resultados más complejos y de mayor valor social y económico.

De acuerdo con Takahito Tokita, recien nombrado CEO de Fujitsu el problema de los riesgos del IA actuales no está en el tecnología como tal, sino en la información que alimentan esos sistemas.

El sistema de Amazon, por ejemplo, funcionaba haciendo una correlación y análisis de los candidatos que la firmaba había contratados o rechazados en los últimos diez años. El problema era que las recomendaciones las habían entregado primordialmente hombres y en una época donde los temas de brecha de género no eran parte de la agenda mediática, empresarial y social. Así, la inteligencia artificial “se enseñó” penalizar aquellos curriculums con la palabra mujer en ellos.

Lee: La inteligencia artificial aplicada en el arte y en sectores que no te imaginas

El caso de Amazon no ha sido exclusivo, sistemas de AI han sido calificados de racistas al confundir personas afroamericanas con gorilas o volverse altamente xenófobos.

A medida que buscamos que la inteligencia artificial resuelva temas más complejos como análisis clínicos, creación de medicamentos, validación de productos en fábricas o que conduzca en calles y avenidas por nosotros, el desarrollo de sistemas libres de cualquier prejuicio pero valor humano son críticos.

Algo que aún no existe del todo. Lex Fridam, un investigador en IA centrada en el ser humano pone un ejemplo claro.

“Piensa cuando manejas, a veces los automovilistas tienden a acelerar en ciertas calles o avenidas para asegurarle al peatón su presencia y que ellos van a cruzar y así evitar un accidente mortal. No están acelerando para atropellar a nadie sino para marcar su presencia y alertar. Ese proceso que es tan innato –que incluso tiene algo de prejuicio– en el ser humano, es casi imposible de programar en una máquina”, dice Fridam.

Es por ello que Tokita propone una inteligencia artificial explicativa, que nos permite entender de dónde vienen los datos y por qué se llegó a ese resultado.

“Los sistemas de inteligencia artificial son altamente eficiente, el problema es que los datos de los que se nutren o la gente los alimenta pueden ser imparciales al dar mayor o menor consideración géneros o razas. Muchas veces sin una mala intención, pero no es culpa del sistema, sino de los datos creados para darle vida por eso desarrollar Inteligencia Artificial explicativa podría ayudar a elevar la confianza en la tecnología”, dijo Takahito Tokita, recien nombrado CEO global de Fujitsu.

De acuerdo con una encuesta realizada por la compañía a nivel global, 52% de los líderes de negocios no confían en las decisiones de los sistemas de IA porque pueden ser imparciales. Aún así 60% de los entrevistados creen que si está bien desarrollada, la inteligencia artificial podría ser mucho más justa en sus decisiones dado que no está sujeta a los prejuicios de los seres humanos.

En charla con Expansión, Tokita dijo que la confianza en los sistemas de inteligencia artificial es aún más baja conforme más sensible sea la información que manejan. Por ejemplo, el estudio de Fujistu reveló que 69% de los usuarios no podrían confiar en la IA en decisiones jurídicas, 54% desconfía de su capacidad para hacer diagnósticos médicos y 40% de los empresarios considera que aún no puede confiarle los control de calidad.

Lee más: ¿Cómo puede México aprovechar la inteligencia artificial?

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad