Publicidad
Publicidad

Apple escaneará imágenes para evitar el abuso sexual infantil

Para proteger a los menores, Apple lanza nuevas medidas de protección, una de ellas es que va a escanear fotografías para evitar el abuso sexual infantil con una tecnología criptográfica.
jue 05 agosto 2021 05:25 PM
Apple escaneará fotos de iCloud
Las actualizaciones para escanear las fotografías ilícitas en iCloud llegarán a finales de año para iOS 15, iPadOS 15, watchOS 8 y macOS Monterey.

Apple informó que, a finales de este año, lanzará una tecnología que permitirá detectar en informar a las autoridades sobre la circulación de contenido de abuso sexual infantil, en las fotografías de iCloud. Aquí te diremos cómo funciona y por qué está causando polémica.

Se trata de una tecnología capaz de escanear imágenes y reconocer contenido conocido por estar relacionado con abuso sexual infantil. Una de las finalidades es proteger a los niños que utilizan sus productos y servicios, bloqueando las fotos potencialmente portadoras de contenido sexual explícito que son enviadas y recibidas por iMessage.

Publicidad

Apple explicó que la mayoría de los servicios de nube ya analizan archivos de los usuarios, en busca de contenido que pudiera violar los términos de uso y servicio o que pudiera considerarse ilegal. En este sentido, desechó que se trate de una medida que atente contra la privacidad de los usuarios, como algunos han reclamado.

¿Cómo va a detectar Apple fotografías de abuso sexual infantil?

NeuralHash, asegura Apple , es una tecnología elogiada por las asociaciones que luchan contra el abuso sexual infantil. Esta funciona, de hecho, en el dispositivo de cada usuario y puede identificar si éste carga imágenes conocidas de abuso infantil en iCloud.

No obstante, estas imágenes potencialmente ilegales no son descifradas hasta que alcanzan una secuencia de verificaciones. Entonces, el sistema las borra de la cuenta de iCloud en cuestión y avisa a las autoridades.

Escaneo de fotos de Apple

¿Qué pasa con la privacidad en Apple?

Esto ha generado polémica entre los defensores de la privacidad del usuario, quienes argumentan que, si este tipo de tecnología cayera en las manos equivocadas, como las de un gobierno autoritario, podría haber hipervigilancia y represión. De hecho, esta noticia se dio a conocer después de que Matthew Green, un experto y profesor de criptografía de la Universidad Johns Hopkins, reveló la existencia de esta tecnología en una serie de tuits.

“La forma en que Apple está lanzando esta tecnología comenzará con fotos que la gente ya ha compartido con la nube. Así que no daña la privacidad de nadie… Pero debe preguntarse por qué alguien desarrollaría un sistema como este si escanear fotos E2E (de punta a punta) no fuera el objetivo”, tuiteó Green. E2E se refiere a mensajes privados que, presuntamente, no podrían ser susceptibles de vigilancia.

No obstante, en un comunicado, Apple asegura que las fotografías en cuestión solamente serán sometidas a revisión manual (humana) cuando hayan pasado varios niveles de comprobación, a través de la tecnología de aprendizaje automático.

De hecho, recalcó que advertirá, tanto a los padres, como a los niños, cuando estén recibiendo o enviando fotografías sexualmente explícitas. De este modo, en el momento que un niño reciba este tipo de contenido, la fotografía se mostrará borrosa junto con una advertencia.

apple seguridad para niños

Finalmente, Apple informó que estas actualizaciones llegarán a finales de 2021 para iOS 15, iPadOS 15, watchOS 8 y macOS Monterey y que esta tecnología evolucionará y se expandirá en el tiempo. Este tipo de esfuerzos por erradicar la difusión de contenidos ilegales no es algo nuevo: El año pasado, Facebook reportó más de 20 millones de imágenes de abuso sexual infantil en su plataforma.

Publicidad

Tags

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad