Publicidad
Revista Digital
Publicidad

El caso Grok no es aislado, la pornografía hecha con IA se expande

Los usos de la Inteligencia Artificial generativa plantean desafíos en materia regulatoria, uno de los casos más recientes es el protagonizado por xAI.
mié 07 enero 2026 05:55 AM
deepfakes-con-IA
Las más afectadas por este tema son mujeres y menores de edad. (Imagen: X)

Las herramientas que trae la tecnología pueden ser usadas para fines positivos, pero también negativos. El reciente episodio en torno a xAI y su modelo Grok puso sobre la mesa la facilidad con la que los sistemas de inteligencia artificial pueden generar imágenes sexuales no consensuadas, ya que evidencia que la pornografía generada con IA es un negocio en crecimiento, impulsado por bajos costos, escasa regulación y una demanda que encuentra pocos frenos tecnológicos y legales.

Desde finales de 2025 y principios de 2026, Grok, el chatbot desarrollado por xAI e integrado en la plataforma X, ha estado en el centro de una controversia global por generar imágenes sexualizadas sin consentimiento.

Publicidad

Usuarios han aprovechado funciones de generación y edición de imágenes para solicitar al modelo que “desvista” personas, incluidas personas menores de edad, o las represente en poses sexualizadas, lo que resultó en la publicación y distribución de contenido potencialmente ilícito en la plataforma.

Los desarrolladores de Grok ya reconocieron “lapsos en las medidas de seguridad”, pero mientras intentan corregirlas, autoridades en países como Francia e India investigan el caso bajo leyes contra la difusión de material ilegal y la protección de menores.

De hecho, reguladores europeos ya calificaron el contenido como ilegal y han instado a aplicar la Digital Services Act.

“La pornografía sintética es uno de los usos más extendidos y lucrativos de las herramientas generativas; en apenas unos años, la producción de este tipo de contenido creció al ritmo de la democratización de modelos de generación de imágenes, video y voz”, señaló en entrevista Fabiana Ramírez, investigadora de información informática en ESET Latam.

Un informe de la asociación Somos Más señaló en 2023 que cerca del 98% de los deepfakes que circulan en internet son pornográficos y no consensuados, y 99% de las personas afectadas son mujeres.

A diferencia de la industria pornográfica tradicional, el ecosistema de deepfakes sexuales opera en una zona gris. Los costos de creación pueden ser muy bajos, pues una suscripción a Grok cuesta alrededor de 30 dólares en la versión Plus, mientras que la opción Super Grok Heavy tiene un costo de 300 dólares al mes.

Aunque compañías como OpenAI, Google o Microsoft han reforzado filtros y políticas de uso, el caso de Grok evidencia una tensión estructural, ya que cuanto más potente y flexible es un modelo, mayor es el riesgo de usos abusivos, y más costoso resulta contenerlos sin afectar la experiencia del usuario.

Publicidad

Jóvenes, viralidad y un problema que escala

En el reporte Deepfake Nudes & Young People: Navigating a New Frontier in Technology-Facilitated Nonconsensual Sexual Abuse and Exploitation, Thorn encuestó a alrededor de 1,200 jóvenes de entre 13 y 20 años y encontró que 1 de cada 8 adolescentes dijo conocer personalmente a alguien que había sido víctima de deepfake sexual, evidenciando cómo esta forma de abuso ya se ha extendido entre jóvenes.

Uno de los grandes retos que existe para su control es la falta de regulación. En mercados clave como la Unión Europea y Estados Unidos, legisladores comienzan a cuestionar si las empresas tecnológicas hacen lo suficiente para prevenir estos usos, o si el modelo de autorregulación quedó rebasado por la velocidad de la innovación.

En México, la discusión sobre la regulación de los deepfakes y la pornografía generada con IA está en marcha, pero sigue fragmentada. No existe aún una ley federal específica que aborde directamente estos contenidos, aunque hay iniciativas como la Ley Olimpia para reconocer la protección de la identidad digital en la Constitución.

Algunos congresos estatales ya tipifican la creación y difusión de deepfakes sexuales con sanciones penales, pero especialistas advierten que el marco legal sigue siendo reactivo, desigual y con vacíos técnicos que dificultan su aplicación frente a tecnologías que evolucionan con rapidez.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad