Somos conejillos de indias para Facebook

La red social manipuló las emociones de sus usuarios, pero otras tecnológicas lo hacen también; Google y CNN realizan constantemente pruebas para conocer qué contenidos funcionan mejor.
facebook  (Foto: CNN)
David Goldman
NUEVA YORK -

Puedes sentirte indignado y molesto con Facebook por haber manipulado las emociones de sus usuarios como parte de un estudio. Pero no deberías estar sorprendido. Después de todo, los experimentos con los usuarios son comunes en la web. Somos ratas de laboratorio en los laberintos de Internet.

El experimento más común realizado sobre cibernautas es la denominada prueba A/B. Es cuando una compañía en línea proporciona una experiencia web diferente a un pequeño subconjunto de clientes. Si eres parte de la prueba A/B, tu pantalla puede ser distinta a la de tu vecino de escritorio, a pesar de que los dos estén en el mismo sitio web.

Google realiza constantemente pruebas A/B haciendo pequeños ajustes a su algoritmo de búsqueda para ver si los cambios proporcionan resultados más útiles. CNN.com cuenta con una herramienta que prueba distintos titulares para ver cuál genera más clics. (CNNMoney también hace pruebas A/B.) Y Facebook aplica este tipo de test en todo, desde la ubicación de los anuncios hasta los contenidos que aparecen en tu News Feed.

Todos somos parte de estos experimentos, estemos conscientes o no, al aceptar los términos de servicio de estas empresas. Por ejemplo, la política de uso de datos de Facebook dice: “Podemos utilizar la información que recibimos sobre ti para operaciones internas, incluidos la solución de problemas, el análisis de datos, la investigación, el desarrollo y la mejora del servicio.” Este tipo de experimentos son parte del precio que pagamos por los contenidos y los servicios en línea gratuitos.

Por su propia naturaleza, las pruebas A/B son manipulativas. Si eres parte de una prueba, es posible que hagas clic en algo que de otro modo habrías ignorado, compres algo que no habrías comprado o sientas algo que de lo contrario no habrías sentido.

Sin embargo, hay una diferencia importante entre las típicas pruebas A/B y el tipo de ensayo que Facebook realizó hace dos años.

La mayoría de las pruebas A/B sirven para dos propósitos: para mejorar el negocio de una empresa y para mejorar tu experiencia web. Por ejemplo, un botón de “Comprar” mejor ubicado podría aumentar las ventas; o más resultados de búsqueda o publicaciones sociales relevantes incrementarán el uso y las visitas.

Los objetivos del experimento de Facebook para modificar el estado de ánimo, en cambio, no son del todo claros. A un subconjunto de usuarios se les hizo sentir, intencionalmente, menos felices durante una semana en 2012. La red social cambió los contenidos que aparecían en el News Feed de casi 690,000 usuarios. A algunas personas se los mostraron publicaciones más positivas, mientras que otros se les mostró información más negativa.

Así que para algunos usuarios, su experiencia web fue peor, no mejor.

En una declaración vía correo electrónico, Facebook afirmó que el experimento se hizo para “mejorar nuestros servicios y hacer que el contenido que las personas ven en Facebook sea lo más relevante y atractivo posible.”

Si eso es cierto, entonces el objetivo era noble, pero el método no era ético. Sabemos que jugar con las emociones de la gente es siempre un potencial subproducto de las pruebas A/B, pero provocar intencionalmente que algunos usuarios sientan emociones negativas es llevarlo demasiado lejos. Esta distinción puede ser sutil, pero es importante.

Por ejemplo, la mayoría de nosotros no tendríamos problemas con un experimento de Amazon que manipulara los resultados de búsqueda con el fin de que compráramos alimentos más saludables. Pero sería un escándalo que Amazon influyera para que un grupo de clientes tomara decisiones menos saludables durante una semana.

¿Quieres más noticias como esta?
Conoce las innovaciones y las tendencias tecnológicas más relevantes.

La forma de evitar en el futuro este tipo de prácticas es simple: Facebook y otros gigantes de Internet podrían cambiar a un modelo de “consentimiento expreso,” donde se les pidiera explícitamente a los usuarios ser parte de una investigación, como el experimento de Facebook para medir el estado de ánimo. Si las 689,000 personas sometidas al experimento de Facebook hubieran sabido que estaban participando en un estudio, quizás no habría generado tanto enfado.

Pero esperar que estas prácticas cambien es una quimera. La cultura en Silicon Valley es forzar a los usuarios a ser manipulados y sometidos a pruebas. Sólo cabe esperar que nuestros amos de Internet sean benevolentes… o que sólo seamos seleccionados para los experimentos “positivos.”

Ahora ve
El papel que juega Corea del Sur en la histeria actual por el bitcoin
No te pierdas
×