(Expansión) - La Inteligencia Artificial (IA) toma decisiones con base en diversos algoritmos. Ahora bien, los escenarios serán diferentes si esos algoritmos se diseñaron para resolver problemas y optimizar procesos o con otra intención. La IA no tiene entre sus algoritmos la capacidad de operar y discernir entre el bien y el mal, sencillamente resolverá con base en el análisis de una serie de datos. Entonces, ¿qué papel juega la ética en el uso de la IA?
IA y ética, ¿cómo integrar los valores y derechos humanos?
Desde hace algunos años escuchábamos el ejemplo de un auto conducido por IA, al que se le presentaba una disyuntiva frente a una situación peligrosa de manejo, en la que, con base en una serie de datos debía decidir entre salvar a un pequeño o a una persona mayor. ¿Qué decisión tomaría? ¿Quién tomaría esa decisión? Este ejemplo que veíamos tan lejano hoy es una absoluta realidad.
En marzo pasado, el gobierno de Italia prohibió el uso de chatbots de IA. La prohibición vino porque no se pudo comprobar que el sistema fuera capaz de proteger los datos de los consumidores.
Antes de la revolución que trajo la IA ya habíamos visto tecnologías muy básicas en este sentido, como aquellos dispositivos que tenemos en nuestros hogares y les solicitamos algunas cosas: los usamos como agendas, hacemos preguntas sencillas, solicitamos canciones, prendemos y apagamos las luces, etc. Estos dispositivos van perfilando a los individuos. Sin embargo, hoy los chats basados en IA ofrecen respuestas a cuestionamientos bastante más complejos que podrían cambiar el mundo como lo conocemos. ¿Otro aspecto a considerar? Esta tecnología avanza a pasos agigantados.
La velocidad de avance es tan vertiginosa que hace algunos meses un grupo de tecnólogos solicitó poner en pausa estas tecnologías, al menos seis meses, argumentando que al cerebro humano le cuesta trabajo adaptarse a los cambios. De seguir en esta línea, se generará una brecha digital aún mayor a la vivida actualmente –de inicio, no todas las personas tienen acceso a una computadora, y muchas de las que tienen acceso no se adaptarán a la velocidad de avance–.
Y es que la IA es como un bebé súper inteligente, que a diario está aprendiendo. Debemos ponerle reglas, hacerle comprender en qué temas puede o no participar. Por ejemplo, la regulación en Europa –el Reglamento General de Protección de Datos (GDPR)–, ya avanzaba en algunos temas sobre que la IA no puede tomar ciertas decisiones que involucren a personas sin que exista una revisión hecha por humanos. Esto es, imaginemos que se le solicita a la IA que elija a quién debe separar de una empresa, porque se requiere, por temas económicos, liquidar al 10% de una nómina. Claro que el sistema lo hará, se basará en datos para determinar quién podría ser “menos eficiente” por cualquier razón. Sin embargo, no considerará si la persona que eligió motiva al resto de los equipos, o resulta ser la más agradable, inspiradora y que cohesiona al equipo.
En abril de este año, el Senado de la República publicó el análisis “El uso de la Inteligencia Artificial en el Poder Legislativo”, en el que menciona cómo la IA puede ser aprovechada por el Poder Legislativo para tomar decisiones más informadas y optimizar recursos burocráticos, entre otros beneficios. Sin embargo, también reconoce limitaciones y riesgos, como el uso de información imprecisa, uso de soluciones no adecuadas a las realidades del país, entre otras. Y es que deja claro en el artículo que en México no existe una “regulación para promover el desarrollo ordenado y el aprovechamiento seguro e incluyente de la IA”, y urge a discutirlo en el Congreso, debido a la velocidad de los cambios. De acuerdo con el mismo estudio, algunos países en los que ya existe algún tipo de regulación son Estados Unidos, China, Canadá, Singapur, Japón y en la Unión Europea.
Ahora, ¿qué sucederá dentro de las empresas? Quizá suene extraño, pero será indispensable tener un área encargada de la ética, que analice lo correcto y lo incorrecto, que tenga claros los valores de la empresa, sea consciente y garantice los derechos de las personas. Además, será importante definir cuáles serán los límites que le estableceremos a la tecnología. Esta nueva área puede derivarse, quizá, de una de Recursos Humanos, del de Riesgos, de Compliance. De tal manera que cualquier algoritmo que se utilice pase por un proceso ético.
La transformación digital continuará acelerándose. Las empresas terminarán por automatizar los trabajos manuales, deberán continuar capacitando a sus equipos, se deberán readaptar los organigramas, y hasta los modelos de negocio continuarán cambiando; pero nunca se debe perder de vista que los seres humanos debemos estar en –y somos– el centro de todo. Debemos garantizar el cumplimiento de los valores y derechos humanos por encima de cualquier avance tecnológico.
Nota del editor: Juan Carlos Carrillo es Director de Ciberseguridad y Privacidad de Datos en PwC México. Síguelo en LinkedIn . Las opiniones publicadas en esta columna corresponden exclusivamente al autor.
Consulta más información sobre este y otros temas en el canal Opinión