‘Minority Report’, una advertencia sobre los riesgos de la policía predictiva
El futuro está llegando incluso más rápido que las predicciones descritas en Minority Report, una película ampliamente aclamada por ser profética.
La película ficticia de Steven Spielberg fue lanzada hace 15 años.
Minority Report, ubicada en 2054, incluía automóviles que se conducen solos, anuncios personalizados, automatización de voz en el hogar, insectos robóticos y computadoras controladas por gestos; tecnología que está llegado a nuestras vidas en 2017.
Pero muchos expertos advierten que una de las tecnologías que más destacan en la película es la policía predictiva, la cual es utilizada imprudentemente hoy en día.
Lee: Adiós al ‘poli’ que mueve el semáforo
Aunque los departamentos de policía no recorren vecindarios en mochilas con propulsores para interrumpir asesinatos, como lo hacen en la película, los datos y la inteligencia artificial ya son utilizados para predecir la ubicación de posibles delitos y enviar a los agentes a esas áreas.
Un estudio de 2016 de la organización UpTurn encontró que 20 de las 50 fuerzas policiales más grandes de Estados Unidos han utilizado la predicción policial.
La película sirvió como una historia instructiva sobre los peligros de la tecnología, pero ese no es su legado.
"Minority Report se ha convertido menos en una historia menos aleccionadora y más en un plan de acción, especialmente en las políticas predictivas”, dijo Suresh Venkatasubramanian, un profesor de Ciencias de la Computación de la Universidad de Utah.
Según Andrew G. Ferguson, profesor de la facultad de Derecho de la Universidad del Distrito de Columbia y autor del próximo libro The Rise of Big Data Policing, los departamentos de policía se sienten atraídos por el potencial de la tecnología como una solución rápida, confiable.
“Las agencias policiales están adoptando esta tecnología porque el señuelo de la policía de caja negra es muy atractivo”, dijo Ferguson. “Cada jefe tiene que responder a la pregunta sin respuesta: '¿Qué estás haciendo con respecto a los índices de criminalidad?'”.
Recomendamos: Reta a la inteligencia artificial en estos juegos
En Minority Report, los psíquicos del departamento de policía local concluyen que el personaje principal de la película, interpretado por Tom Cruise, cometerá un asesinato. Mientras intenta demostrar su inocencia, Cruise aprende que los psíquicos carecen de un juicio coherente.
Pero esa lección no se entiende ampliamente con los sistemas actuales de predicción del crimen, argumenta Venkatasubramanian.
“Estamos tratando a los algoritmos como si fueran infalibles y verdaderos árbitros de cómo la gente va a comportarse, cuando por supuesto no son nada de eso”, dijo Venkatasubramanian.
El programa del departamento de policía de Chicago ha utilizado inteligencia artificial para identificar a personas con alto riesgo de violencia armada, pero un estudio de 2016 de la Corporación Rand encontró que la táctica era ineficaz.
“Cuando los algoritmos de aprendizaje de máquinas toman decisiones, a menudo cometen errores”, dijo Venkatasubramanian. “En lugar de intentar ocultar el hecho de que cometen errores, se debe ser muy abierto y directo acerca de ello”.
Venkatasubramanian pertenece a una comunidad de investigadores preocupados por la inexactitud de las predicciones de algoritmos, donde señalan el problema de cómo éstos aprenden de la retroalimentación. Por ejemplo, si los oficiales pasan más tiempo observando cierto vecindario, sus estadísticas de detención pueden aumentar incluso si el crimen subyacente sigue siendo consistente.
Lee: Nvidia quiere crecer la inteligencia artificial en México
Si las máquinas son entrenadas en datos sesgados, también se verán afectadas. Las comunidades con una historia de ser fuertemente vigiladas serán tocadas de manera desproporcionada por la policía preventiva, según ha advertido la investigación.
Según Kristen Thomasen, una profesora de Derecho de la Universidad de Windsor, quien estudia la ética de la inteligencia artificial, los temores ficticios planteados en la película deberían sentirse actualmente.
Thomasen señala cómo se han utilizado los sistemas de inteligencia artificial para ayudar a los jueces a determinar las penas criminales. En estos casos, los sistemas de inteligencia artificial califican la probabilidad de un criminal de cometer un crimen futuro.
Después de que ProPublica lanzara una pieza histórica sobre los puntajes de evaluación de riesgo en mayo de 2016, se encendió un debate entre los científicos informáticos sobre el papel de la inteligencia artificial en la policía.
Actualmente, los algoritmos no están ampliamente disponibles para que las personas externas analicen eficazmente si los sistemas tienen sesgos. Algunos de los creadores de los algoritmos argumentan que su tecnología es un secreto comercial y que revelarlos dañaría su negocio.
“Eso hace que sea aún más difícil argumentar a favor de su inocencia o explicar por qué esta predicción es incorrecta”, dijo Thomasen. “Hay una pérdida de acceso a la justicia, es un principio fundamental del sistema de justicia donde tú tienes la capacidad de defenderte”.
Recomendamos: Google dejará de leer tus correos para recomendarte anuncios
Aunque Minority Report nos advirtió sobre estos problemas, 15 años no han sido suficiente tiempo para que la sociedad los absorba.
“¿Es Minority Report un himno para nuestro tiempo sobre el uso de algoritmos en la vida? No, todavía no”, dijo Venkatasubramanian. “Tal vez la gente regrese en 20 años y diga: 'Eh, eso fue bastante acertado”.