Para Will Allen, vicepresidente de producto de Cloudflare, esto representa un entorno complejo para la difusión de noticias confiables, ya que "si uno no es capaz de identificar la fuente y compensarla por esa información, se vuelve mucho más difícil invertir en esas fuentes originales".
Además de que este problema genera un entorno apto para la difusión de noticias falsas, parte del debate también se encuentra en la apropiación de contenido por parte de las grandes compañías de IA para el entrenamiento de sus modelos sin permiso ni remuneración. En este sentido, Cloudflare sostiene una filosofía simple: el creador debe tener la capacidad de elegir.
Al respecto, Allen señala un objetivo fundamental y es que "el creador de contenido, el operador de sitios web, la organización de noticias o el editor debería poder decidir qué sucede con su contenido cuando lo pone en línea, en particular para usos comerciales".
Esto significa que si un creador desea que su contenido sea utilizado para el entrenamiento de un nuevo modelo fundacional, debería ser su elección. Del mismo modo, si desea que su contenido no se utilice para el entrenamiento o la inferencia en los nuevos "motores de respuesta", esa también debe ser su decisión.
Nuevas vías para la compensación
Para combatir el riesgo de empobrecimiento del conocimiento colectivo y proteger a los creadores, Cloudflare lanzó Pay-per Crawl. Esta herramienta busca restaurar el equilibrio y ofrecer una alternativa al dilema actual, que se limita a bloquear completamente a un rastreador de IA o permitirle el acceso de forma gratuita.
De acuerdo con Allen, esta herramienta ayuda a un editor a ir "más allá de la elección binaria", pues introduce una tercera opción que permite a las IA el acceso a su contenido, pero bajo términos y condiciones claras, incluyendo un modelo de compensación que establece el creador y tiene "control total sobre lo que le gustaría cobrar" por el acceso a una URL o página específica.
Este enfoque no solo protege los derechos de autor y de los medios, sino que también garantiza que los sistemas de IA se alimenten de fuentes verificadas y de calidad, algo fundamental para combatir la alucinación de las plataformas de IA.
El modelo Pay-Per Crawl se basa en la autenticación, asegurando que los rastreadores sean genuinos y no suplantadores, lo cual es fundamental para el producto, pero no es el único en el mercado.
DeeperDive, desarrollada por la empresa de tecnología Taboola, es otro ejemplo y se trata de un motor de respuesta basado en IA que se integra directamente en los sitios de noticias y ofrece a los lectores respuestas inmediatas basadas en contenido verificado y producido por periodistas.
Esta herramienta ofrece a los lectores una experiencia similar a la de los motores GenAI, pero con un valor agregado clave, según la empresa tras esta herramienta, pues las respuestas no solo se basan en datos confiables de los propios medios, sino que también incluyen contexto adicional y enlaces a historias relacionadas del mismo sitio, fomentando una exploración más profunda del contenido y aumentando el tiempo de permanencia de los usuarios.
Hostinger también cuenta con una plataforma, llamada AI Audit, que permite ver qué bots de IA visitan el sitio, rastrear su actividad a lo largo del tiempo y permitirlos o bloquearlos. “El objetivo es devolver el control a los creadores. La IA puede aprovechar contenido público, pero los propietarios deben tener herramientas para decidir cómo y cuándo participar en este nuevo ecosistema,” comenta Gustavo Bustos, country manager de Hostinger Latam.
Y si bien el modelo de Pay-Per Crawl se encuentra en una etapa temprana de experimentación, Allen ve un futuro donde la compensación por contenido de calidad sea la norma, aun cuando pueda considerarse una visión utópica.
No obstante, afirma que para que esta visión se convierta en una realidad, se necesita crear un mercado donde los flujos de pago sean sencillos, conectando al consumidor, la empresa de IA y el creador de contenido.
Finalmente, el propósito es empoderar a los creadores para que tomen sus propias decisiones y, simultáneamente, construir "grandes herramientas fáciles" para que los desarrolladores de IA utilicen y, en última instancia, paguen por ese contenido de manera escalable.