¿Qué hacen Meta, X y otras plataformas?
Mientras YouTube da este paso, otras plataformas aún titubean. En X (antes Twitter), por ejemplo, los algoritmos siguen favoreciendo contenido de IA viral, como imágenes generadas por modelos como Midjourney o posts fabricados por bots, sin mayores restricciones.
Meta ha avanzado en etiquetas que indican si un contenido fue creado o modificado con IA. Pero más allá del etiquetado, sus plataformas aún permiten la circulación masiva de videos y publicaciones generadas por máquinas sin una política clara de desmonetización o visibilidad reducida.
Tampoco existe un consenso generalizado sobre qué constituye “contenido IA basura”. Para algunos usuarios puede ser una imagen sin contexto; para otros, un texto evidentemente mal escrito o repetitivo. El dilema se vuelve más profundo cuando se considera que, en muchos casos, estos contenidos sí atraen tráfico y tiempo de visualización, incentivando su producción.
El reto de balancear control de calidad y libertad de expresión
El auge de los modelos generativos ha abierto la puerta a una avalancha de contenido que es barato de producir, pero difícil de clasificar. Para las plataformas digitales, el reto es doble, pues deben evitar que la calidad general se degrade, sin restringir la creatividad o innovación que estas herramientas también posibilitan.
YouTube dice que aún se permite el uso de IA, siempre que el contenido tenga un aporte original o un propósito claro. Pero para muchos creadores pequeños, la línea entre un canal legítimo y uno considerado spam se vuelve borrosa.
Lo que está en juego no es solo la calidad del contenido, sino la confianza de los usuarios en lo que consumen y comparten cada día.