Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Plan Ángel. Cuando la Inteligencia Artificial desafía la ética

Imagina: la tecnología inteligente, que se supone debería hacer nuestras vidas más fáciles y seguras, se convierte en una herramienta para señalar y etiquetar a la gente con base en su aspecto.
mié 02 agosto 2023 05:59 AM
Plan Ángel de Marcelo Ebrard puede vulnerar derechos humanos
El Plan Ángel que propuso Marcelo Ebrard , aspirante de Morena a la candidatura presidencial, plantea un uso masivo de la tecnología en tareas de vigilancia de la población.

(Expansión) - ¿Alguna vez has tenido uno de esos días donde te levantas y te sientes un verdadero desastre? Esos días donde te pones la primera cosa que ves en tu clóset y al final pareces un verdadero reflejo del mal gusto. O te dejas crecer la barba durante semanas y ahora pareces Tom Hanks en la película de “Náufrago” … o no elegiste el atuendo correcto como la señora de Monster’s Inc. Recuerdo un día en que salí a la calle con un atuendo desastroso y para mi sorpresa, la gente me miraba de una manera muy extraña. Algunos incluso se cruzaban a la otra banqueta para evitar pasar cerca de mí. ¡Y todo por mi apariencia!

Publicidad

Después de que te platico esto, ahora, ¿te imaginas un futuro en el que la Inteligencia Artificial (IA) pueda juzgarte por tu apariencia y etiquetarte como potencial delincuente? Pues bien, el Plan Ángel ha generado preocupación en cuanto a la ética de la IA y el peligro de perpetuar estereotipos basados en la apariencia física.

Según este plan, la IA y el reconocimiento facial se convertirían en los mejores amigos de la seguridad en México. ¡Qué maravilla! Pero, aguanta, no todo es color rosa porque aquí viene el problema: ¿dónde queda esa parte ética de la IA? ¿Cómo evitamos alimentar esos sesgos que predefinimos en las personas por su apariencia?

Tú sólo imagina esto: la tecnología inteligente, que supuestamente debería hacer nuestras vidas más fáciles y seguras, se convierte en una herramienta para señalar y etiquetar a las personas con base en su aspecto. Entonces, si un algoritmo ve a alguien con tatuajes o una apariencia poco convencional, inmediatamente podría marcarlo como sospechoso. ¡Oh, vaya! Ahora resulta que la moda alternativa y los estilos rebeldes son sinónimo de criminalidad. ¿Qué sigue? ¿Arrestar a todos los que usan chanclas con calcetines?

Y no sólo eso, el plan también considera cómo te mueves y tu morfología. La IA, en su afán de detectar posibles delincuentes, puede caer en la trampa de juzgarte por tu forma de caminar. Tal vez tienes un paso rápido y enérgico, o quizás te mueves como un caracol. La IA podría interpretar esto como una señal de que eres sospechoso, sin tener en cuenta que cada persona tiene su propio estilo de caminar y que existe una multitud de factores que influyen en ello.

Aquí es donde entra en juego la ética. No podemos permitir que la IA se convierta en un juez implacable que determine la culpabilidad de alguien en función de su apariencia o morfología. Las personas no deberían ser juzgadas por su ropa, peinado o forma de caminar. ¡Es como si viviéramos en un mundo donde los libros fueran juzgados por sus portadas y no por su contenido!

Y no pienses que estoy exagerando. ¡Para nada! Hay datos que respaldan estas preocupaciones. Una famosa empresa de tecnología implementó un algoritmo de reconocimiento facial que, lamentablemente, mostró sesgos raciales. ¿Imaginas ser detenido sólo porque el algoritmo te confunde con alguien más debido a tu raza? Sería como vivir en una versión distópica de "¿Dónde está Wally?".

Pero no todo termina ahí. Otro estudio demostró que los algoritmos de reconocimiento facial tienen dificultades para identificar a las mujeres con precisión, especialmente a aquellas con tonos de piel más oscuros. ¡No puede ser! Parece que ser mujer y tener un tono de piel más oscuro es como un boleto seguro para un arresto injusto. Y todo esto gracias a nuestro enemigo, el sesgo algorítmico.

Un ejemplo muy bueno de esto es la ley europea sobre IA que afecta a los migrantes. En un intento por regular el uso de algoritmos con sesgos y proteger los derechos de los ciudadanos, la Unión Europea implementó medidas para evitar la discriminación algorítmica. Sin embargo, en la práctica, esta legislación ha generado consecuencias inesperadas para los migrantes, especialmente aquellos provenientes de regiones con tonos de piel más oscuros.

Publicidad

Entonces, ¿qué podemos hacer al respecto?

Sí o sí debemos echar mano de la IA como una herramienta. A la vez, es hora de que exijamos transparencia y ética en el desarrollo y aplicación de ésta. Necesitamos regulaciones que aseguren que estos algoritmos sean justos y precisos, que no perpetúen estereotipos y prejuicios en la sociedad y se preocupen por los derechos humanos. También debemos fomentar la diversidad en el campo de la IA, para que las personas de diferentes orígenes y experiencias estén representadas en la toma de decisiones tecnológicas.

Como profesional que trabaja en una compañía de tecnología, entiendo la importancia de utilizarla de manera responsable, especialmente cuando se trata de "Responsible AI", que se refiere al uso de procesos de revisión rigurosos y multidisciplinarios a lo largo de todo el ciclo de desarrollo de la IA. Por ejemplo, hay empresas que crean equipos con personas de diversos contextos para evitar sesgos durante la programación y colaboran con socios e instituciones para mitigar los usos potencialmente dañinos de la IA.

Si me dijeran que este tipo de procesos están considerados en la implementación del Plan Ángel, estaría tranquila. Mientras esto sea una propuesta, debemos asegurar que se priorice el bienestar y los derechos de las personas. ¡No olvidemos nunca la ética en el corazón de la tecnología!

____________________

Nota del editor: Ana Peña es directora de comunicación para Intel Américas. Síguela en LinkedIn . Las opiniones publicadas en esta columna pertenecen exclusivamente a la autora.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad