Publicidad
Publicidad

YouTube va contra el contenido de IA basura, ¿pero y el resto del internet?

La plataforma modificará sus políticas de monetización, apuntando contra contenido generado con IA de baja calidad.
mar 15 julio 2025 03:00 PM
youtube contenido ia
Las plataformas empiezan a lidiar con el AI slop

La Inteligencia Artificial es capaz de potenciar la creatividad y ayudar a muchos profesionistas a hacer sus tareas más llevaderas, pero también genera mucho contenido automatizado y que ‘contamina’ varias plataformas.

Ante esto, a partir del 15 de julio, YouTube endurece sus reglas contra el contenido automatizado de baja calidad, una medida que impactará directamente en los canales que busquen monetizar videos generados con IA, sin valor claro para la audiencia.

Publicidad

Aunque la plataforma aclara que los cambios no van dirigidos contra los llamados canales de reacción o editores humanos, sí está cerrando el cerco a los “contenidos de spam generados automáticamente”, como compilaciones de texto leído por voz sintética, clips de stock sin narrativa y contenido repetitivo sin valor agregado.

“Estamos reforzando nuestras políticas para evitar que quienes usen herramientas automatizadas abusen del sistema de monetización”, explicó YouTube a Search Engine Journal.

Esta actualización se suma a las directrices previas del sitio, que ya penalizan contenido engañoso o clonado sin contexto, y forma parte de un esfuerzo más amplio por mantener la calidad en la plataforma.

La decisión de YouTube no ocurre en el vacío, pues Google ha enfrentado una ola de contenido basura (también llamado AI slop) en sus productos, desde resultados de búsqueda plagados de artículos mal redactados y generados masivamente con IA, hasta videos y podcasts artificiales que dominan las sugerencias.

De acuerdo con las políticas antispam de Google, el uso automatizado de IA para crear contenido sin supervisión humana, sin valor o con el único fin de manipular rankings, es considerado spam. Y aunque la empresa ha dicho que la IA no está prohibida per se, sí advierte que debe ser usada con moderación y con una intención clara de servir al usuario.

Publicidad

¿Qué hacen Meta, X y otras plataformas?

Mientras YouTube da este paso, otras plataformas aún titubean. En X (antes Twitter), por ejemplo, los algoritmos siguen favoreciendo contenido de IA viral, como imágenes generadas por modelos como Midjourney o posts fabricados por bots, sin mayores restricciones.

Meta ha avanzado en etiquetas que indican si un contenido fue creado o modificado con IA. Pero más allá del etiquetado, sus plataformas aún permiten la circulación masiva de videos y publicaciones generadas por máquinas sin una política clara de desmonetización o visibilidad reducida.

Tampoco existe un consenso generalizado sobre qué constituye “contenido IA basura”. Para algunos usuarios puede ser una imagen sin contexto; para otros, un texto evidentemente mal escrito o repetitivo. El dilema se vuelve más profundo cuando se considera que, en muchos casos, estos contenidos sí atraen tráfico y tiempo de visualización, incentivando su producción.

El reto de balancear control de calidad y libertad de expresión

El auge de los modelos generativos ha abierto la puerta a una avalancha de contenido que es barato de producir, pero difícil de clasificar. Para las plataformas digitales, el reto es doble, pues deben evitar que la calidad general se degrade, sin restringir la creatividad o innovación que estas herramientas también posibilitan.

YouTube dice que aún se permite el uso de IA, siempre que el contenido tenga un aporte original o un propósito claro. Pero para muchos creadores pequeños, la línea entre un canal legítimo y uno considerado spam se vuelve borrosa.

Lo que está en juego no es solo la calidad del contenido, sino la confianza de los usuarios en lo que consumen y comparten cada día.

Publicidad

Publicidad

Publicidad