Publicidad
Publicidad

Adulto mayor es erróneamente detenido por culpa de la IA

Harvey Eugene Murphy fue enviado a prisión por presuntamente cometer un robo, pero fue una confusión en los sistemas de reconocimiento facial. Por ello, está demandando a Macy’s y EssilorLuxottica.
jue 25 enero 2024 09:00 AM
Adulto mayor es arrestado erróneamente por culpa de la IA; ahora demanda 10 mdd
IBM sostuvo que Estados Unidos debería tener más controles respecto a las cámaras de alta resolución utilizadas para recopilar datos.

Cuando Harvey Eugene Murphy Jr, un hombre de 61 años, fue a Texas desde California al departamento de vehículos motorizados (DMV) para renovar su licencia, nunca imaginó que en lugar de realizar un trámite sería arrestado. Se le acusó de robar miles de dólares en mercancía de un Sunglass Hut en enero de 2022, y fue arrestado el 20 de octubre de 2023.

El problema: Harvey nunca cometió ningún delito. Y mientras se comprobaba su inocencia en los 10 días que estuvo en prisión, fue golpeado y violado en grupo, un evento que alega le dejó secuelas físicas y psicológicas.

Lo que ocurrió es que en enero de 2022 dos ladrones armados robaron miles de dólares y productos en una tienda de Sunglass Hut, en Houston. Pero según la demanda de Murphy, un empleado de EssilorLuxottica, la empresa matriz de la tienda de lentes, trabajó con su socio minorista Macy's y utilizó un software de reconocimiento facial para identificarlo como el ladrón.

Publicidad

Según la demanda, la imagen que se introdujo en el sistema de reconocimiento facial provenía de cámaras de baja calidad. Mientras el departamento de policía de Houston investigaba el robo a mano armada, el empleado de EssilorLuxottica llamó a la policía para decir que podían detener la investigación porque el empleado había identificado a uno de los dos ladrones, ayudado por IA. Además, el empleado afirmó que el sistema había señalado a Murphy como autor de otros dos robos.

Por ello, ahora Murphy reclama a Macy’s y a EssilorLuxottica 10 millones de dólares, por el uso indebido de este sistema de reconocimiento facial que lo identificó erróneamente.

​​"Sunglass Hut puede que no tenga acceso al software de reconocimiento facial, y por lo tanto, los documentos indican que llevaron el video a Macy's, luego utilizaron sus rasgos para determinar que él era quien había robado en Macy's anteriormente, y lo señalaron”, dijo Daniel Dutko, el abogado de Murphy, a medios locales.

A pesar de no ser condenado por un delito, Murphy sostiene que su detención le dejó cicatrices profundas. Alega haber sido brutalmente golpeado y violado por tres hombres en la cárcel horas antes de ser liberado, quienes lo amenazaron con matarlo si intentaba denunciarlos al personal de la cárcel. Después del presunto ataque, Murphy permaneció en la misma celda que sus agresores hasta su liberación.

Los riesgos del reconocimiento facial para condenar personas

Nathan Freed Wessler, director adjunto del Proyecto de Discurso, Privacidad y Tecnología de la Unión Americana de Libertades Civiles (ACLU), afirmó a The Guardian que este caso es otro ejemplo de los "peligros extremos de la tecnología de reconocimiento facial".

"En caso tras caso, hemos visto a la policía confiar reflexivamente en resultados de reconocimiento facial poco confiables y permitir que coincidencias falsas de la tecnología contaminen los procedimientos de identificación de testigos", dijo Wessler. "Como muestran los hechos alegados en este caso, las consecuencias de ser arrestado injustamente son horribles. Los legisladores deben poner fin a la peligrosa dependencia de la policía y las corporaciones de los resultados del reconocimiento facial para encarcelar a las personas".

Los rostros se están volviendo más fáciles de capturar a distancias remotas y más baratos de recopilar y almacenar. Pero a diferencia de muchos otros tipos de datos, los rostros no pueden cifrarse. De acuerdo con una publicación de Asis , revista especializada en seguridad, el volumen actual de datos almacenados en diversas bases de datos (por ejemplo, licencias de conducir, fotografías policiales y redes sociales) agrava el potencial de daño, ya que partes no autorizadas pueden "conectar y usar" fácilmente numerosos puntos de datos para revelar la vida de una persona.

Por otro lado, las filtraciones de datos que involucran información de reconocimiento facial aumentan el riesgo de robo de identidad, acoso y hostigamiento, ya que, a diferencia de contraseñas e información de tarjetas de crédito, los rostros no pueden cambiarse fácilmente.

Además, un estudio elaborado por el National Institute of Standard and Technology reveló que en el caso de reconocimiento facial, incluso con fotografías de alta calidad se observan tasas más altas de falsos positivos en personas de África Occidental, África Oriental y Asia Oriental, y más bajas en individuos de Europa del Este. Aunque con algoritmos desarrollados en China, este efecto se invierte, mostrando tasas bajas de falsos positivos en rostros asiáticos orientales.

En imágenes de aplicación de las fuerzas del orden interno, los falsos positivos más altos se encuentran en personas de origen indígena americano, con tasas elevadas en las poblaciones afroamericanas y asiáticas; depende del género y varía con el algoritmo.

Se observa que los falsos positivos son más altos en mujeres que en hombres, aunque este efecto es menor que el debido a la raza. Además, se encuentran falsos positivos elevados en personas mayores y en niños.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad