Publicidad
Publicidad

La IA de Google denunció por error a un padre por posible abuso infantil

El caso llegó hasta el Departamento de Policía de San Francisco, el cual determinó que el incidente “no cumplió con los elementos de un delito”.
lun 22 agosto 2022 10:00 AM
Google
Con estas herramientas, los usuarios podrán realizar un seguimiento proactivo de la información que se publica en torno a una persona.

Mark, un padre en Estados Unidos, denunció que la Inteligencia Artificial de Google marcó las imágenes de su hijo enfermo como materia de abuso sexual infantil (MASI), además de que cerró sus cuentas y presentó un informe ante el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), lo cual derivó en una investigación policial en su contra.

Este caso se hizo público gracias a un reciente informe del New York Times, sin embargo, sucedió en febrero de 2021, cuando los consultorios aún estaban cerrados por la covid-19. El padre notó una hinchazón en la zona genital de su hijo y, a pedido de una enfermera, envió imágenes del problema para una videoconsulta.

Si bien el médico le recetó un antibiótico para curar la infección, un par de días después, el padre recibió una notificación por parte de Google donde se le indicaba que su cuenta había sido bloqueada por “contenido dañino”, el cual era una “violación grave de las políticas de Google y podría ser ilegal”.

Google anunció el lanzamiento de su kit de herramientas de IA de seguridad de contenido en 2018, bajo el objetivo de “identificar de manera proactiva material de abuso sexual infantill nunca antes vistas que puedan ser revisadas y, si se confirman como tal, eliminarlas e informarlas lo más rápido posible”.

Publicidad

La empresa ha explicado que hacen uso de especialistas y “tecnología de punta” para generar coincidencias entre las imágenes nuevas y un repositorio de información que tienen en su sistema para que cuando encuentren algún MASI lo informen al NCMEC y pasen a la acción junto a agencias policiales de todo el mundo.

Un vocero de Google le dijo al Times que la compañía únicamente escanea las imágenes de los usuarios cuando estos toman una “acción afirmativa” para ello, la cual aparentemente puede incluir hacer una copia de seguridad de sus fotos en Google Photos.

Durante el 2021, Google envió 287,368 informes de posible abuso sexual infantil al NCMEC, según su reporte de transparencia, mientras que este organimo alertó a las autoridades cerca de 4,260 posibles víctimas, entre los que se incluyó al hijo de Mark.

Aunque el padre intentó apelar la decisión de Google, esta rechazó su solicitud y, en cambió, terminó perdiendo el acceso a sus correos electrónicos, contacto, fotos e incluso su número de teléfono, pues usaba el servicio móvil de Google Fi.

Publicidad

Por otra parte, el Departamento de Policía de San Francisco abrió una investigación sobre Mark en diciembre pasado y determinó que el incidente “no cumplió con los elementos de un delito”, según señala el Times.

La portavoz de Google, Christa Muldoon, dijo a The Verge en un comunicado que están comprometidos para evitar que este tipo de contenido se propague en su plataforma. “Nuestro equipo de expertos en seguridad infantil revisa el contenido marcado para verificar con precisión y consulta con pediatras para ayudar a garantizar que podamos identificar instancias en la que los usuarios pueden estar buscando un consejo médico”, dijo.

Y si bien la protección de los menores es un tema fundamental, defensores de la seguridad en línea criticaron el escáner de fotos, además de considerarlo una invasión a la privacidad irrazonable.

Jon Callas, director de proyectos tecnológicos de la Electronic Frontier Foundation (EFF), señaló a NYT que este tipo de prácticas son “precisamente la pesadilla que nos preocupa a todos. Van a escanear mi álbum familiar y luego me voy a meter en problemas”.

Publicidad

Cabe recordar que el año pasado, la EFF criticó el plan de Apple de incluir un escaner de fotografías para hallar imágenes de abuso sexual infantil, porque consideraron que abría una puerta trasera a la vida de los usuarios y representaba “una disminución de la privacidad para todos los usuarios de iCloud Photos”.

Aunque Apple suspendió esa función, en la versión 15.2 de su sistema operativo incluyó una herramienta opcional para cuentas de niños, donde si se opta por participar, la aplicación de Mensajes “analiza archivos adjuntos de imágenes y determina si una foto contiene desnudez, mientras mantiene el cifrado de extremo a extremo de los mensajes”.

En caso de que detecte este tipo de imágenes, desenfoca el contenido y muestra una advertencia para el niño, además de presentarle recursos con el objetivo de mejorar su seguridad en línea.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad