Publicidad
Revista Digital

Síguenos en nuestras redes sociales:

Publicidad

Algoritmos, beneficios y amenazantes riesgos

El uso ilegal de los SDA por gobiernos poco éticos o corruptos puede significar la práctica de sobrevigilancia, persecución de rivales políticos o actos de represión, apunta Javier Murillo Acuña.
mié 04 agosto 2021 12:07 AM

(Expansión) - Hemos destacado varias veces el fenómeno que atestiguamos desde hace años con las empresas, gobiernos e individuos interesados en mantenerse actualizados en los campos de sus competencias, para estar vigentes y no rezagarse.

Para todos ellos, es prioritario el uso de bases de datos y algoritmos, con la finalidad de crear herramientas de automatización y toma de decisiones. De hecho, el funcionamiento del mundo actual, en casi todos los campos, no se entendería sin el apoyo de esas tecnologías.

Publicidad

Y aunque todos ellos pueden estar conscientes de los beneficios cuando se implementan estos procesos automatizados en la labor cotidiana y en la formulación de estrategias, no siempre se está consciente también de los graves riesgos y desafíos que ello conlleva.

Planear y trabajar con base en lo que los llamados Sistemas de Decisión Algorítmica (SDA) nos aportan no puede ser labor tomada a la ligera, ante la falta de rigor científico, profesional, legal o ético en la que se puede incurrir, como la experiencia ha demostrado ya varias veces.

El Instituto Nacional de Investigación en Informática y Automatización (Inria, por sus siglas en francés) presentó en 2019 un estudio sobre las oportunidades y riesgos relacionados con el uso de los SDA. Dado lo completo y enriquecedor de lo ahí presentado, me permito compartirle y comentar algunas de las ideas ahí expuestas.

Dicho trabajo, encargado por el Panel para el Futuro de la Ciencia y la Tecnología, del Parlamento Europeo, justamente profundiza sobre las cuestiones éticas, políticas, legales y técnicas en las que se debe tener atención, en el manejo de algoritmos en los que se basarán muchas decisiones personales, empresariales o de políticas públicas.

Con los argumentos que ahí se presentan, podemos inferir que, si se descuida la atención sobre varios de esos aspectos, los resultados y beneficios esperados pueden quedar anulados para quien seguramente invirtió fuertes cantidades con la idea de obtener el provecho que no llegará.

Y no sólo ello. Algoritmos incorrectamente edificados pueden significar actos de injusticia para las personas involucradas. Desafortunadamente no son pocos los casos documentados de prácticas discriminatorias, competencia desleal, pérdida de autonomía, acceso erróneo a mercados e, incluso, amenazas a la democracia, por programas automatizados dañinos, diseñados así accidental o intencionalmente.

Si bien áreas como la educación, programas sociales y salud se benefician indudablemente con los SDA, también hay experiencias lamentables que no podemos dejar pasar para corroborar lo perjudicial que la automatización mal hecha puede significar.

Está el caso documentado en 2019, por un estudio que reveló un acto de racismo descarado en el software de toma de decisiones de hospitales de Estados Unidos, por el cual pudo comprobarse que millones de personas negras eran afectadas por prejuicios raciales en los algoritmos de atención.

Entonces, pudo verificarse fehacientemente que dicho sector, con necesidades médicas complejas, tenía drásticamente menos probabilidades que las personas blancas, igualmente enfermas, de admisión a programas para una atención más personalizada. El fruto del estudio fue que se iniciaron acciones para implementar correcciones pertinentes.

Publicidad
¿Cómo hackear un sistema? Un vistazo a las herramientas de los cibercriminales

En áreas como la selección de personal, elección de nuevos estudiantes (especialmente en instituciones con alta demanda) o intención de ser acreedor a un préstamo, son los sistemas algorítmicos los que ya están a cargo, en muchos lugares, de realizar tales tareas. En no pocos casos, sin embargo, también se han detectado errores y políticas injustas que incurren en actos discriminatorios.

Otras áreas, como la legal, tienen ya en los SDA aliados importantes para la aplicación de la justicia. No obstante, en algunos sistemas usados por cortes en Estados Unidos, se han encontrado errores que pueden terminar en fallos erróneos para los justiciables.

Un aspecto al que dicho estudio dedica espacio importante, y que aquí subrayamos, es el del mal uso por parte de piratas informáticos que pueden ingresar y causar daños a los sistemas automatizados. El área de la protección y seguridad debe ser una prioridad.

Si delincuentes cibernéticos logran acceder a información confidencial de una persona o empresa, o bien, llegan a manipular sistemas públicos vitales, como los de vigilancia, semaforización, o abasto de agua, las secuelas podrían ser mayúsculas.

El uso ilegal de los SDA por gobiernos poco éticos o corruptos puede significar la práctica de sobrevigilancia, persecución de rivales políticos o actos de abierta represión, no muy lejos de las políticas del Big Brother, en el 1984, de Orwell, en un tema que la comunidad internacional debe mantenerse atenta.

El estudio, que dedica atención a cuestiones técnicas, de igual manera propone ideas para detectar y corregir errores en el uso de las SDA. Aquí destacaremos, a manera de conclusión, la necesidad del manejo profesional de quienes están a cargo de esas herramientas en los sectores público o privado, y la retroalimentación que ellos deben tener con profesionales de otras disciplinas, que coadyuven a diseñar algoritmos con principios legales, éticos y de beneficio social.

Nota del editor: Javier Murillo Acuña es fundador y presidente de Metrics. Científico de datos, experto en tecnologías de la información aplicadas a la transformación de modelos de negocio digitales. Actualmente trabaja en el desarrollo de algoritmos de prospectiva y medición de valor de marca para empresas globales. Síguelo en LinkedIn y/o escríbele a javier@metricser.com Las opiniones publicadas en esta columna pertenecen exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad
Publicidad
Publicidad