La conclusión de la junta surgió luego de que un casino utilizara la identidad del exfutbolista brasileño, Ronaldo Nazário, para promocionar sus juegos en línea. Dicha publicidad tenía indicios de ser falsa e incluso fue reportada como falsa más de 50 veces y ni siquiera así se removió el contenido.
Si bien al final se eliminó el video, esto no fue hasta que la junta de supervisión acordó revisar el caso y su alcance fue de más de 600,000 veces, lo cual generó preocupación en el organismo, por revelar las fallas fundamentales y la selectividad en la forma en que aborda la moderación de contenido.
Para esta entidad, Meta “sólo aplica la política en casos de escalada para garantizar que la persona representada en el contenido no respalde realmente el producto”, además de que la interpretación de lo que es una “persona falsa” varía según las regiones, lo cual aumenta las probabilidades de que una cantidad significativa de contenido fraudulento se esté filtrando.
Aunque la junta recomendó a la empresa actualizar sus medidas internas y capacitar mejor a quienes revisan estos contenidos, Meta dijo en un comunicado que las afirmaciones son inexactas, además de que han realizado diferentes productos para combatir las estafas basadas en deepfakes de famosos.
“A medida que esta actividad se ha vuelto más persistente y sofisticada, también lo han hecho nuestros esfuerzos por combatirla. Estamos probando el uso de reconocimiento facial, implementando medidas enérgicas contra las estafas y capacitando a las personas para que se protejan mediante diversas herramientas y advertencias de seguridad en la plataforma”, comentó Meta.
El problema de las deepfakes de famosos
Las depfakes se han convertido en un tema público. La actriz Jamie Lee Curtis criticó públicamente a Mark Zuckerberg por no eliminar un anuncio en Facebook donde había una imagen falsa de ella y este es un problema que ha afectado a otras celebridades, como Taylor Swift.
En ese contexto, Estados Unidos promulgó la Ley de Eliminación de Imágenes hace un par de semanas que además de hacer ilegal el compartir imágenes explícitas sin consentimiento, sean reales o no, exigen a las tecnológicas eliminar dicho contenido dentro de las 48 horas siguientes a su notificación.
Se trata de una de las primeras leyes federales de EU cuyo objetivo es abordar los posibles daños del contenido generado a través de IA. “La IA es nueva para muchos. Aún estamos averiguando qué es beneficioso y perjudicial, pero los deepfakes íntimos (no consensuados) son un claro daño”, dijo Ilana Beller, del grupo progresista que apoyó la ley, Public Citizen.
¿Cómo detectar una deepfake?
De acuerdo con el MIT Media Lab, existen algunas señales para tener en cuenta a la hora de consumir contenido en internet y detectar si se trata de una imagen generada por Inteligencia Artificial.
- Parpadeo y movimiento poco natural de los labios.
- Reflejos inconsistentes o sin sentido en los ojos o lentes.
- Coincidencia entre la edad de la piel, la de los ojos y la del cabello.