Publicidad
Publicidad

El neuromarketing de los invasores

Los algoritmos hacen lo que siempre han hecho los medios, pero de forma automática, personalizada y a gran escala, apunta Jordi Oliva.
jue 21 abril 2022 12:01 AM
El neuromarketing de los invasores
Las tecnologías digitales nos están dotando de capacidades humanas nunca vistas, destaca Jordi Oliva.

(Expansión) - Todos estamos en múltiples pantallas para chatear, compartir, entretenernos y comprar. Este comportamiento del consumidor digital está haciendo que los profesionales del marketing tengan que pensar en nuevas formas de conexión con las audiencias.

Para las marcas, marketing digital significa marketing de precisión dirigido por datos, en todos los canales de decisión de compra del consumidor y con contenido más ágil, más nativo, frecuente y fresco.

Publicidad

¿Eres una empresa de repostería o también una empresa de contenidos? ¿Una empresa social? ¿Necesitas crear contenido entretenido, estar preparado para tener conversaciones sociales y estar disponible para ser comprado con un clic? ¿Incluso desde un celular?

Estas preguntas eran extrañas en el pasado, pero son las correctas ahora. Antes lo importante era la capacidad de producir masivamente con la misma calidad y con la logística para llevar el producto a todas partes. Y sin embargo hoy es completamente secundario: lo importante es desarrollar las redes humanas de adopción de marcas y conductas, aquellas que podamos construir alrededor de nuestra comunidad de clientes y de valor de marca.

No se trata de publicitar las características del producto o de usar influencers, sino de construir la topología óptima de distribución de los valores de una marca entre las personas.

El poder ha pivotado desde los medios de comunicación masiva que tenían las audiencias, a quien tiene ahora los datos para cualificarlas. La fragmentación en dispositivos es un reto que también genera oportunidades (momento y lugar para comunicar) y que la compra programática resuelve de manera eficiente.

El problema viene con su alta capacidad de segmentación por identidad y grafo social, que se está encontrando con una creciente oposición por permitir filtrar la publicidad por raza, género y edad.

Una investigación publicada por ProPublica en 2016 encontró que una herramienta de Facebook podía utilizarse para excluir a los usuarios negros y latinos de ciertos anuncios inmobiliarios. "Internet no es un lugar donde se pueda discriminar a las personas por su edad, raza o género", aseguraba el abogado de la Sra. Opiotennione, una estadounidense de 54 años que decidió unirse a otros usuarios de Facebook para presentar una demanda colectiva por discriminación, cuando descubrió que la red social le ocultaba algunos anuncios sobre productos financieros por ser una mujer mayor.

"Sería como si General Motors se negara a ofrecer a las mujeres o a los mayores las mismas características de un auto que a los hombres o a los jóvenes”, decía.

Pero ¿quién sería el responsable? ¿Facebook… o el anunciante de esos productos en Facebook? La demanda se produjo en medio de un debate sobre cómo la actual legislación protege a los ciudadanos no solo de la discriminación directa, sino también de la generada por la inteligencia artificial, cuyos efectos de segregación son similares, pero cuyo origen es más difícil de rastrear.

El problema radica en que la ausencia de ciertos parámetros en los datos de entrada de un algoritmo no impide que el resultado sea igualmente discriminatorio, como demostró recientemente un estudio que determinó que un algoritmo usado para analizar los riesgos para la salud de millones de pacientes en Estados Unidos discrimina sistemáticamente a la población negra, a pesar de que el sistema desconocía la raza de los afectados.

O la polémica con la Apple Card, cuyos algoritmos pueden llegar a ofrecer 20 veces menos crédito a una mujer que un hombre en una situación económica similar, aunque Goldman Sachs (el banco detrás del producto de Apple), aseguró que en los datos que se introducen en el sistema no se incluye el género o el estado civil de los usuarios.

Aceptemos que esta discriminación de salida se puede producir por correlaciones entre los datos de entrada que pueden contener sesgos implícitos que no son fáciles de identificar a simple vista. El peor problema está en los sesgos que el propio sistema de aprendizaje automático también puede generar debido a las decisiones que retroalimentan el sistema.

Por ejemplo, un estudio publicado en 2017 en la revista Science mostró que cuando una inteligencia artificial aprende un idioma, ésta termina por asumir los sesgos humanos que están incluidos implícitamente en el lenguaje, reproduciendo comportamientos que pueden ser machistas, racistas y en última instancia, ideológicos.

No hay que menospreciar la capacidad de la inteligencia artificial para aprender y adaptarse a nosotros: una investigación publicada este año en PNAS muestra que, no solo es muy difícil distinguir los rostros “fabricados” con “redes adversarias generativas (GAN)” de los rostros de personas reales, sino que además esos rostros creados sintéticamente generan más confianza en las personas que los vieron.

Si los algoritmos son los que deciden no solo qué videos le pueden gustar a un usuario, sino también si se le ofrece o no un crédito bancario, una vivienda o un seguro médico… también pueden justificar la invasión y destrucción de un país vecino y hermano con altas tasas de aprobación popular.

El experimento de Sune Lehmann, una científica de datos danesa y su equipo en 2014 fue perturbador: creó una red en Twitter de 39 bots (programas de envío automático de mensajes conectados entre sí) que reforzaron la ilusión de que eran personas reales. No solo reclutaron a más de 25,000 seguidores en seis semanas, sino que además creó un efecto en las personas de legitimación y aprobación social de sus mensajes, no por el hecho de recibir varias veces el mismo mensaje, sino de recibirlo de diferentes fuentes, lo que alteró los valores y conductas del grupo de seguidores. Y lo hizo de forma automática y con un número pequeño de bots.

Los algoritmos hacen lo que siempre han hecho los medios, pero de forma automática, personalizada y a gran escala. “Como son automáticos creemos que son neutros, pero la realidad es que los algoritmos son ideología”, afirma Liliana Arroyo, investigadora de ESADE.

Publicidad

En fin, las tecnologías digitales nos están dotando de capacidades humanas nunca vistas, “ya no hacemos marketing para personas, sino para dioses”, dice Rishad Tobaccowala, CGO de Publicis Groupe. Pero también están levantando preocupantes capas de la realidad.

Estuve a punto de titular esta columna “Cada vez somos irremediablemente más zoquetes”, pero luego pensé que no les parecería bien a mis editores. Vemos lo que otros quieren que veamos y no vemos las cosas como son, sino como somos, y sin aparente juicio crítico. Es la esencia del infame neuromarketing.

Es vital legislar sobre estos algoritmos que tienden a reproducir y ampliar los sesgos de los seres humanos, así como es urgente la regulación ética de los contenidos de las plataformas porque la suma de bots, bulos y vulnerables nos lleva al desastre.

PD: un abrazo a los 350 compañeros que siguen trabajando en Kiev
#NoalaInvasión

Nota del editor: Jordi Oliva es CIO de Publicis Groupe México. Síguelo en LinkedIn . Las opiniones expresadas en esta columna pertenecen exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad