Publicidad
Revista Digital
Publicidad

¿Por qué elegimos optimizar el consumo, pero no el odio?

Dedicamos enorme capacidad analítica a aquello que produce valor inmediato, mientras relegamos lo que no encaja fácilmente en un modelo de negocio.
lun 16 febrero 2026 06:01 AM
¿Por qué elegimos optimizar el consumo, pero no el
Si somos capaces de convertir el consumo en un laboratorio permanente de optimización, ¿por qué seguimos tratando el análisis del odio organizado como un asunto secundario?, plantea Ilse Canela. (AndreyPopov/Getty Images)

La tecnología nunca ha sido neutral. Tampoco lo es la forma en que decidimos qué observar, qué analizar y qué dejar fuera de foco. En los entornos digitales, la visibilidad no se asigna por impacto social, sino por alineación con intereses económicos globales. Lo que generara retorno se examina, se ajusta y se perfecciona, lo demás suele quedar al margen.

Vivimos en una época capaz de convertir el consumo en una supuesta revolución económica. Afinamos cada clic, cada intención de compra, cada segundo de atención. Sabemos qué reduce fricción, qué impulsa una conversión y que estimulo acelera una decisión. Dedicamos enorme capacidad analítica a aquello que produce valor inmediato, mientras relegamos lo que no encaja fácilmente en un modelo de negocio.

Publicidad

Lo llamativo es que, contando esas mismas herramientas, entendemos poco y discutimos aún menos otros fenómenos digitales que también operan a plena vista.

Hace unas semanas, durante un congreso de tecnología en Europa, una hacktivista alemana mostró cómo logró infiltrarse y desmantelar varios sitios de citas supremacistas blancos, vinculados a una plataforma conocida como el llamado Tinder para nazis. El acceso dejó al descubierto cerca de 100 GB de información. Perfiles, mensajes, fotos y posibles datos de pago. Información suficiente para reconstruir redes sociales, patrones geográficos y dinámicas internas de grupos extremistas.

El caso pasó rápido. No hubo debate sostenido ni análisis profundo. Y quizá ese silencio sea lo más revelador.

No se trata de falta de información ni de límites técnicos. Se trata de prioridades. La visibilidad no desaparece por censura; se diluye cuando deja de resultar conveniente. Cuando no produce retorno, cuando incomoda a los actores adecuados o cuando obliga a formular preguntas que no caben en un dashboard.

La rentabilidad como filtro

Hoy destinamos recursos, talento y sofisticación analítica a entender cómo consumimos, cómo compramos y cómo reaccionamos ante estímulos comerciales. En cambio, cuando se trata de mapear, entender y frenar estructuras de odio organizadas digitalmente, la atención se diluye. No porque no sea posible, sino porque no resulta igual de rentable.

La reacción frente al caso lo ilustra con claridad. El foco no estuvo en cómo operaban estas plataformas, quién las alojaba o por qué habían funcionado durante años sin fricción. La conversación se desplazó con rapidez hacia la privacidad de los usuarios expuestos. Un tema legítimo, sin duda, pero también como salida cómoda. El problema estructural quedó intacto.

Los sistemas de análisis digital no fueron concebidos para entender fenómenos sociales complejos. Se diseñaron para reducir incertidumbre económica, eficientar mercados y maximizar rendimiento. Todo lo demás queda en la línea casi invisible: lo difícil de monetizar, lo incómodo, lo que no tiene un dueño claro.

Por eso sabemos más sobre hábitos de consumo que sobre redes de radicalización. Tenemos lecturas detalladas de lo que compramos y apenas visibilidad fragmentada sobre dinámicas de odio que también utilizan plataformas, datos y tecnología para expandirse.

Publicidad

Responsabilidad sin arquitectura

Auditar aquello que limita los derechos de otros parece una obligación básica. Sin embargo, los sistemas que gobiernan el entorno digital no operan bajo esa lógica, sino bajo una mucho más estrecha: la del valor económico. Sabemos medir fricción cuando afecta ventas, rastrear comportamientos cuando impactan conversión y corregir dinámicas cuando se ponen en riesgo ingresos. Pero cuando una actividad digital produce daño social sin afectar directamente el flujo económico, queda fuera del mandato operativo. No por malicia, sino porque nadie tiene responsabilidad asignada. Los derechos no tienen dashboard, presupuesto, o un responsable funcional claro. Y en un sistema que opera por métrica, lo que no se mide no se corrige; parece que se normaliza.

En ese vacío surgen formas de auditoría informal. Periodistas - hackers como Root o comunidades organizadas como el ARMY de BTS en México, capaces de rastrear abusos y exponer prácticas ilegítimas, muestran algo fundamental: la capacidad existe. El talento está ahí, pero opera sin marco institucional, sin reglas claras y sin rendición de cuentas. A veces produce correcciones necesarias; otras, reproduce nuevas formas de acoso.

No es un problema de intención. Es un problema de diseño

Si somos capaces de convertir el consumo en un laboratorio permanente de optimización, ¿por qué seguimos tratando el análisis del odio organizado como un asunto secundario? Tal vez el debate de fondo no sea sobre hacktivismo ni sobre privacidad, sino sobre qué estamos dispuestos a ignorar cuando mirar de frente deja de ser rentable.

Porque los sistemas digitales, incluso el silencio es una decisión estratégica. Y no en todas las decisiones se toman por incapacidad. Muchas se toman porque alguien en algún punto del sistema, decidió que no valía la pena medirlas.

_____

Nota del editor: Ilse Canela es Chief Marketing Officer en Solucredit | Cofundadora y CMO en Imagina Lab. Las opiniones publicadas en esta columna corresponden exclusivamente a la autora.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad