Publicidad
Revista Digital
Publicidad

Rastreo de la IA sin consentimiento, ¿por qué el control debe volver a los creadores?

La IA se está entrenando con contenido que no solo no compensa, sino que no reconoce ni visibiliza adecuadamente a sus creadores.
jue 08 enero 2026 06:02 AM
Anthropic, OpenAI, xAI y Meta reprueban en medidas de seguridad para controlar la superinteligencia de IA
Las plataformas de IA tienen que decir con claridad qué tipo de rastreo hacen —si es para entrenamiento, inferencia o búsqueda— y dar a los propietarios de sitios la información necesaria para tomar decisiones informadas, considera Carlos Torales. (MF3d/Getty Images)

El principio bajo el que se construyó internet cambió con la llegada de los rastreadores de Inteligencia Artificial. De origen, la navegación funcionaba bajo un principio simple pero poderoso: el intercambio. Es decir, los motores de búsqueda rastrean los sitios, los indexan y, a cambio, dirigen tráfico hacia ellos.

Publicidad

Pero ese flujo que hizo sustentable la creación de contenido original, incentivando la innovación, el periodismo, la cultura y la economía digital, hacia 2026 y desde mediados de 2025, corre riesgo. Si bien los rastreadores —o crawlers— no son nuevos y desde los años 90 han recorrido la web para organizar la información y hacerla accesible, los que funcionan con Inteligencia Artificial (IA) son bots que no buscan ayudar al usuario a encontrar un sitio, sino absorber contenido para entrenar modelos de IA que luego responderán directamente al usuario, sin necesidad de redirigirlo a la fuente original.

Ahora bien, no voy a decir que esto afecta a todos los creadores ya que no todos tienen los mismos intereses. Algunos quizá genuinamente desean que sus contenidos sean usados para entrenar IA; otros prefieren mantener el control sobre cómo y para qué se usa su trabajo. Yo considero que ambas posturas son válidas, siempre y cuando la decisión esté en manos del creador.

Sobre todo hoy que el impacto ya es muy evidente. Según datos recientes de Cloudflare Radar, el tráfico combinado de crawlers de búsqueda e IA creció un 18% de mayo 2024 a mayo 2025. Algunos rastreadores como GPTBot, de OpenAI, aumentaron sus solicitudes un 305% en un solo año. Pero lo más revelador no es cuánto rastrean, sino cuán poco tráfico devuelven a los sitios que indexan.

De hecho, por cada 70,900 páginas HTML que ClaudeBot (Anthropic) solicitó entre el 19 y el 26 de junio de este año, apenas una generó una visita de retorno al sitio original. Incluso modelos más moderados, como los de OpenAI, muestran un desfase profundo entre lo que toman y lo que regresan. En otras palabras, la IA se está entrenando con contenido que no solo no compensa, sino que no reconoce ni visibiliza adecuadamente a sus creadores.

Esto me genera una duda clave: ¿cómo protegemos el interés por seguir creando contenido en la web? Cuando ya no hay tráfico, no hay monetización. Cuando no hay reconocimiento, se pierde la motivación. Cuando todo lo que se publica puede ser tomado sin consentimiento, el modelo se desequilibra.

Al respecto, creo que la solución no está en oponerse al desarrollo de la IA. Al contrario: la IA nos es muy útil y desde luego necesita datos, contexto y entrenamiento, pero también requiere de un entorno saludable donde el contenido original no sea un recurso infinito ni gratuito. Lo que está en juego es la sostenibilidad del ecosistema digital. Si el contenido de calidad desaparece, los propios modelos de IA se alimentarán de ruido, duplicaciones y baja calidad, generando una Internet menos confiable y menos útil para todos.

Publicidad

Por eso considero que la clave está en el consentimiento. El cambio necesario no busca cerrar puertas, sino abrir un camino donde cada creador pueda decidir con claridad y autonomía. Se necesita un modelo basado en permisos, donde los sitios web tengan la capacidad de decidir qué bots ingresan, con qué propósito, y bajo qué condiciones. Solo así será posible construir un nuevo equilibrio entre quienes crean contenido y quienes desarrollan IA.

La transparencia también debe ser una obligación. Las plataformas de IA tienen que decir con claridad qué tipo de rastreo hacen —si es para entrenamiento, inferencia o búsqueda— y dar a los propietarios de sitios la información necesaria para tomar decisiones informadas. De lo contrario, no solo están extrayendo datos: están vulnerando la confianza misma que sustenta la red.

Internet no dejará de ser un espacio abierto, diverso y sustentable, si tomamos decisiones que pongan a los creadores al centro. Como líderes del ecosistema digital, tenemos la responsabilidad de establecer nuevas reglas que fomenten la colaboración, la innovación y el respeto mutuo. La IA puede convivir con los creadores, pero solo si la relación es justa, consensuada y transparente.

_____

Nota del editor: Carlos Torales es Vicepresidente de Cloudflare para Latinoamérica. Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad