Menores de edad: los usuarios más vulnerables
En una entrevista con Expansión, Capelo explicó que para comprender cómo y por qué se comparte este tipo de contenido en sus aplicaciones, realizaron un análisis y detectaron que 90% del contenido es el mismo, o visualmente similar, al que ya se ha reportado.
“Evaluamos 150 cuentas que reportamos al NCMEC (Centro Nacional para Niños desaparecidos y explotados, por sus siglas en inglés) por subir material de abuso sexual infantil en julio y agosto de 2020 y enero de 2021, y estimamos que más de 75% de estas no mostraron intenciones maliciosas. Es decir, no tenían el propósito de dañar a un niño. Parece que fueron compartidas por otras razones, como indignación o un pésimo sentido del humor, por ejemplo, los genitales de un niño siendo mordidos por un animal”, explicó.
Técnicamente, la plataforma permitirá a las personas generar un “hash” o “huella digital” de sus imágenes y videos de manera privada, directamente desde sus dispositivos, sin que tengan que subir el material a la plataforma.
La persona puede entonces crear un caso y subir estos hashes de forma segura a la plataforma Take it Down. Las aplicaciones como Facebook e Instagram pueden usar esos hashes para escanear y ver si hay coincidencias de imágenes y videos en sus plataformas y eliminarlas, evitando que se siga distribuyendo el contenido.
Take It Down se basó en plataformas como StopNCII , una plataforma lanzada en 2021 con South West Grid for Learning (SWGfL) y más de 70 ONG’s del mundo, que ayuda a los adultos a detener la difusión de sus imágenes íntimas en línea.
Capelo también compartió que, para el desarrollo de la plataforma, trabajaron de cerca con el NCMEC, así como expertos, académicos, padres de familia y defensores de víctimas de todo el mundo. “En colaboración con el NCMEC, promoveremos Take it Down en nuestras apps y las integraremos a Facebook e Instagram para que las personas puedan acceder fácilmente a esta cuando denuncien contenidos”.
¿Cómo cuidar a los menores de edad de la violencia sexual digital?
El informe “Violencia sexual digital” , elaborado por el Frente Nacional para la Sororidad, reveló que la mayoría de las agresiones sexuales digitales se llevan a cabo en las filiales de Meta, pues de 1549 reportes registrados, 498 se llevaron a cabo en Facebook, 151 en WhatsApp y 102 en Instagram.
Esta es una problemática que Meta busca aminorar. Recientemente, actualizó sus políticas de seguridad infantil para aclarar que eliminarán los perfiles, páginas, grupos y cuentas de Instagram y Facebook que se dedican a compartir imágenes de niños con leyendas, hashtags o comentarios que contengan signos inapropiados de afecto o comentarios inapropiados sobre los niños representados en la imagen.
También cuentan con más de 30 herramientas para mantener a los adolescentes y familias seguros en las aplicaciones, incluyendo herramientas de supervisión que le permitan a los padres de familia limitar el tiempo que sus hijos dedican a Instagram.
Aquí puedes encontrar una guía con todas las herramientas para proteger a los menores de edad.