Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Apple retrasa su escáner para detectar imágenes de abuso sexual infantil

Las críticas sobre privacidad hicieron desistir a la compañía, la cual no detalló cuándo podría estar disponible.
vie 03 septiembre 2021 11:05 AM
apple-retrasa-escaner-de-imagenes
Grupos de usuarios dijeron que esta tecnología podía caer en manos de gobierno autoritarios.

Después de recibir señalamientos y críticas en torno a la privacidad de los usuarios, Apple decidió retrasar los planes para implementar la tecnología de detección de abuso sexual infantil (CSAM, por sus siglas en inglés).

Las nuevas herramientas estaban previstas para ser lanzadas a finales de este año y tenían el objetivo de detectar e informar a las autoridades sobre la circulación de contenido de abuso sexual infantil en las fotografías de iCloud , no obstante, esto generó preocupación entre grupos preocupados por la privacidad de los usuarios.

En términos generales, la tecnología Neural Hash podría ser capaz de escanear imágenes y reconocer contenido conocido por estar relacionado con el abuso sexual infantil. Esto, desde la perspectiva de Apple, tiene la finalidad de proteger a los niños que usan sus productos y servicios bloqueando las fotos potencialmente portadoras de contenido sexual explícito enviadas y recibidas por iMessage.

Publicidad

¿Cuánto tiempo se retrasará Neural Hash?

Tras el anuncio de Neural Hash, diversas asociaciones defensoras de la privacidad alzaron la voz, pues consideraron que el enfoque de Apple no estaba bien orientado, debido a que abría la puerta a violaciones de derechos digitales y humanos por parte de gobiernos autoritarios en caso de que llegara a sus manos.

Incluso la EFF alertó que los usos se podrían ampliar para vulnerar los derechos de las personas, por ejemplo, en países donde se prohíbe la homosexualidad, ya que el contenido LGBTQ+ se podría restringir, así como las imágenes satíricas o de protesta.

Esta semana, EFF dijo que ya se habían reunido más de 25,000 firmas de consumidores que se oponían a la medida. Además, cerca de 100 grupos de políticas y derechos solicitaron a la compañía que abandonara sus planes de implementar las herramientas.

Por su parte, Apple publicó un comunicado en donde destacaron que estas funciones estaban “destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, además de limitar la propagación de material sobre abuso sexual infantil”.

Publicidad

No obstante, debido a los comentarios de los usuarios críticos, grupos de defensa e investigadores, la empresa dijo que decidió tomarse “más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”.

Esto quiere decir que si bien la versión 15 de iOS estará disponible en las próximas semanas, no incluirá estas nuevas herramientas hacia finales de año, como se tenía previsto. Sin embargo, la compañía tampoco detalló una fecha en la cual implementará la herramienta.

Apple admite errores de comunicación

Este asunto ha generado caos al interior de Apple e incluso provocó la reacción de Craig Federighi, vicepresidente de ingeniería de software de la compañía, quien durante una entrevista con The Wall Street Journal mencionó que las confusiones se debían a errores en la comunicación de la empresa.

“Muchos mensajes se mezclaron bastante mal en términos de cómo se entendieron las cosas”, destacó el ejecutivo, quien además resaltó que se trata de herramientas benéficas para los usuarios.

Publicidad

Respecto a su funcionamiento, Federighi mencionó que Neural Has funcionará en caso de que el usuario alcance un umbral de alrededor de 30 imágenes que coincidan con pronografía infantil y Apple sólo tendrá acceso a esas imágenes en la cuenta de la persona y no a ninguna otra.

Cabe mencionar que la compañía también compartió un documento donde declara : “Seamos claros, esta tecnología se limita a detectar material de abuso sexual infantil almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla”, en relación a los comentarios de que a través de esta herramienta se ejecuten labores de hipervigilancia y represión por parte de gobiernos.

¿Quieres enterarte de lo más reciente de la tecnología?
Entrevistas, noticias y reseñas sobre los últimos gadgets e innovaciones.

¡Falta un paso! Ve a tu email y confirma tu suscripción (recuerda revisar también en spam)

Ha ocurrido un error, por favor inténtalo más tarde.

Publicidad