Según la demanda, la imagen que se introdujo en el sistema de reconocimiento facial provenía de cámaras de baja calidad. Mientras el departamento de policía de Houston investigaba el robo a mano armada, el empleado de EssilorLuxottica llamó a la policía para decir que podían detener la investigación porque el empleado había identificado a uno de los dos ladrones, ayudado por IA. Además, el empleado afirmó que el sistema había señalado a Murphy como autor de otros dos robos.
Por ello, ahora Murphy reclama a Macy’s y a EssilorLuxottica 10 millones de dólares, por el uso indebido de este sistema de reconocimiento facial que lo identificó erróneamente.
"Sunglass Hut puede que no tenga acceso al software de reconocimiento facial, y por lo tanto, los documentos indican que llevaron el video a Macy's, luego utilizaron sus rasgos para determinar que él era quien había robado en Macy's anteriormente, y lo señalaron”, dijo Daniel Dutko, el abogado de Murphy, a medios locales.
A pesar de no ser condenado por un delito, Murphy sostiene que su detención le dejó cicatrices profundas. Alega haber sido brutalmente golpeado y violado por tres hombres en la cárcel horas antes de ser liberado, quienes lo amenazaron con matarlo si intentaba denunciarlos al personal de la cárcel. Después del presunto ataque, Murphy permaneció en la misma celda que sus agresores hasta su liberación.
Los riesgos del reconocimiento facial para condenar personas
Nathan Freed Wessler, director adjunto del Proyecto de Discurso, Privacidad y Tecnología de la Unión Americana de Libertades Civiles (ACLU), afirmó a The Guardian que este caso es otro ejemplo de los "peligros extremos de la tecnología de reconocimiento facial".
"En caso tras caso, hemos visto a la policía confiar reflexivamente en resultados de reconocimiento facial poco confiables y permitir que coincidencias falsas de la tecnología contaminen los procedimientos de identificación de testigos", dijo Wessler. "Como muestran los hechos alegados en este caso, las consecuencias de ser arrestado injustamente son horribles. Los legisladores deben poner fin a la peligrosa dependencia de la policía y las corporaciones de los resultados del reconocimiento facial para encarcelar a las personas".
Los rostros se están volviendo más fáciles de capturar a distancias remotas y más baratos de recopilar y almacenar. Pero a diferencia de muchos otros tipos de datos, los rostros no pueden cifrarse. De acuerdo con una publicación de Asis , revista especializada en seguridad, el volumen actual de datos almacenados en diversas bases de datos (por ejemplo, licencias de conducir, fotografías policiales y redes sociales) agrava el potencial de daño, ya que partes no autorizadas pueden "conectar y usar" fácilmente numerosos puntos de datos para revelar la vida de una persona.
Por otro lado, las filtraciones de datos que involucran información de reconocimiento facial aumentan el riesgo de robo de identidad, acoso y hostigamiento, ya que, a diferencia de contraseñas e información de tarjetas de crédito, los rostros no pueden cambiarse fácilmente.
Además, un estudio elaborado por el National Institute of Standard and Technology reveló que en el caso de reconocimiento facial, incluso con fotografías de alta calidad se observan tasas más altas de falsos positivos en personas de África Occidental, África Oriental y Asia Oriental, y más bajas en individuos de Europa del Este. Aunque con algoritmos desarrollados en China, este efecto se invierte, mostrando tasas bajas de falsos positivos en rostros asiáticos orientales.
En imágenes de aplicación de las fuerzas del orden interno, los falsos positivos más altos se encuentran en personas de origen indígena americano, con tasas elevadas en las poblaciones afroamericanas y asiáticas; depende del género y varía con el algoritmo.
Se observa que los falsos positivos son más altos en mujeres que en hombres, aunque este efecto es menor que el debido a la raza. Además, se encuentran falsos positivos elevados en personas mayores y en niños.