Facebook no es la única empresa que te trata como 'rata de laboratorio'
Puedes estar molesto y enojado con Facebook después de que manipuló las emociones de sus usuarios como parte de un estudio. Pero no debería sorprenderte.
Después de todo, los experimentos en usuarios son algo común en la web. Somos 'ratas de laboratorio' en los laberintos de internet.
El tipo más común de experimento web realizado en los usuarios se llama prueba “A/B”. Eso es cuando una empresa en línea ofrece una experiencia web diferente para un pequeño subconjunto de clientes. Si eres parte de la prueba A/B, tu pantalla podría verse diferente de la de quien está a tu lado, aunque ambos estén en el mismo sitio web.
Google realiza constantemente pruebas A/B al generar pequeños ajustes en su algoritmo de búsqueda para ver si los cambios ofrecen resultados más útiles. CNN.com tiene una herramienta que prueba titulares diferentes para ver cuál genera más clics. (CNNMoney también hace pruebas A/B). Y Facebook hace pruebas A/B de todo desde la colocación de anuncios hasta qué contenido aparece en tu news feed.
Todos estuvimos de acuerdo con estos experimentos, ya sea conscientemente o no. Está en los términos de servicio de estas empresas. Por ejemplo, la política de uso de datos de Facebook dice, “podemos utilizar la información que recibimos sobre ti para operaciones internas, incluyendo resolución de problemas, análisis de datos, pruebas, investigación y mejora de servicios”. Estos tipos de experimentos son parte del precio que pagamos por contenido y servicios en línea gratuitos.
En su propia naturaleza, las pruebas A/B son manipulativas. Si eres parte de una prueba, podrías hacer clic en algo que de otra forma ignorarías, comprarías algo que de otra manera no comprarías o sentirías algo que de otra manera no sentirías.
Pero hay una distinción importante entre las pruebas típicas A/B y la que Facebok realizó hace dos años.
La mayoría de las pruebas A/B tiene dos propósitos: para mejorar el negocio de una empresa y mejorar tu experiencia web. Un botón mejor colocado de comprar podría aumentar las ventas. Más resultados relevantes de búsqueda o publicaciones sociales mantendrán comprometidos a los usuarios y regresando por más.
Los objetivos del experimento de estado de ánimo de Facebook no están completamente claros. Un subconjunto de usuarios fue hecho sentir menos feliz intencionalmente durante una semana en 2012. Facebook cambió la mezcla en el news feed de casi 690,000 usuarios. A algunas personas se les mostraban publicaciones más positivas, mientras que a otras se les mostraban publicaciones más negativas.
Así que para algunos usuarios, su experiencia web empeoró; no mejoró.
Facebook, en un comunicado a través de correo electrónico, afirmó que el experimento fue realizado para “mejorar nuestros servicios y hacer que el contenido que las personas ven en Facebook sea lo más relevante y atractivo posible”.
Si eso es verdad, entonces el objetivo era noble, pero el método era no ético. Jugar con las emociones de las personas siempre es un subproducto potencial de las pruebas A/B, pero también es un paso demasiado lejos hacer que algunos usuarios sientan emociones negativas intencionalmente. Esa distinción poría ser sutil, pero es importante.
Por ejemplo, la mayoría de las personas estaría bien con un experimento de Amazon que manipuló los resultados de búsqueda que nos impulsaron a comprar alimentos más saludables. Pero habría un alboroto si Amazon impulsara a un grupo de clientes a que tomara elecciones menos saludables durante una semana.
La forma de evitar este tipo de prácticas en el futuro es sencilla; Facebook y otros gigantes de internet podrían cambiar a un modelo de consentimiento “de inclusión”, en el que a los usuarios se les pide explícitamente que sean parte de investigaciones como el experimento de estado de ánimo de Facebook. Si las 689,000 personas sometidas al experimento de Facebook hubieran sabido que formaban parte del estudio, podría ser que las personas no hicieran un gran escándalo al respecto.
Pero no te apresures. La cultura en Silicon Valley es forzar a los usuarios a ser manipulados y a que se les hagan pruebas. Solo podemos esperar que nuestros amos de internet sean benevolentes; o que solo seamos seleccionados para los experimentos “positivos”.