Publicidad
Publicidad

OPINIÓN: Los frecuentes 'experimentos' de Facebook con sus usuarios

El autor reflexiona sobre el fin que persigue la red social con los experimentos que hace sistemáticamente con sus usuarios
mié 02 julio 2014 12:32 PM
facebook
facebook Las distintas redes sociales presentaron problemas de conectividad, intermitencia y caídas en México y otras partes del mundo. (Foto: Especial)

Nota del editor: David Weinberger es investigador en el Centro Berkman de la Universidad de Harvard para Internet y la Sociedad y autor del libro Too Big to Know.

(CNN) — Muchas personas están indignadas por las recientes revelaciones de los experimentos psicológicos que Facebook llevó a cabo en 2012 con 690,000 personas que no estaban conscientes de que se había alterado la combinación de feeds negativos y positivos en sus muros.

El jugar con los sentimientos de la gente sin su consentimiento es problemático. Pero podría ser aún peor si pensamos —luego de que Facebook publicara una de sus frecuentes disculpas— que Facebook ya terminó de manipular a sus usuarios.

No. El experimento fue solo una versión más intrusiva de lo que la empresa hace cada vez que visitamos nuestra página de la red social.

El experimento de Facebook fue una versión de la llamada prueba "A/B" , una de las técnicas más usadas y eficaces a las que los grandes sitios web recurren para "ofrecer una mejor experiencia de servicio al cliente", es decir, para vendernos más cosas.

Por ejemplo: Amazon ha experimentado rutinariamente durante años con cambios aparentemente insignificantes en sus páginas, tales como mostrar del lado izquierdo de la página un descuento a la mitad de sus visitantes y colocar el mismo anuncio del lado derecho al resto de los visitantes. Si Amazon determina que aumenta considerablemente la cantidad de veces que se selecciona una oferta cuando se encuentra en un lado determinado, allí las colocarán a partir de ese momento.

Publicidad

Las empresas llevan a cabo pruebas A/B en cada parámetro de una página: el tamaño de la tipografía, el color y la profundidad de los sombreados.

Sin embargo, el experimento de Facebook no fue una prueba A/B normal. Usualmente, una prueba altera un factor aparentemente irrelevante, pero en el experimento de la red social se cambió el servicio fundamental del sitio: las noticias sobre nuestros amigos. Peor aún, Facebook lo hizo de forma que probablemente afectó el estado emocional de sus usuarios. Eso es algo por lo que hay que preocuparse.

Sin embargo, gran parte de la indignación proviene de una presuposición falsa: que hay una mezcla real de noticias acerca de nuestros amigos. No la hay. Facebook siempre usa algoritmos para decidir qué mostrarnos y qué dejar oculto. Facebook está en el negocio de filtrar un río caudaloso de noticias para que tengamos un chorro constante del que podamos beber.

El experimento de 2012 es una ventana hacia este asunto mayor: Facebook, parte importante e incluso dominante de nuestra infraestructura social, toma decisiones sobre lo que queremos saber acerca de nuestros amigos con base en lo que sirve a Facebook, Inc., y solo en segundo término se basa en lo que nos sirve a nosotros como individuos y como sociedad.

Este punto se demuestra en el excelente libro (y excelente conferencia de TED Talks ) de Eli Pariser, The Filter Bubble. Facebook filtra nuestras noticias para transformarnos en clientes felices. Sin embargo, Facebook define a un cliente feliz como aquel que regresa con frecuencia y hace clic en muchos enlaces.

Cuando se trata de política, podemos ver fácilmente el problema: el mostrarnos noticias que nos incitan a hacer clic es una fórmula para promover las manifestaciones y las divisiones políticas. Eso en exceso es malo, pero tanto en la política como en las relaciones sociales en general, ¿sabemos cuál es la combinación correcta?

¿Estamos seguros de que es malo filtrar las noticias sociales para que incluyan más cosas negativas? El aplicar un filtro positivo puede mostrarnos un panorama demasiado rosa de nuestra red social y puede escudarnos de la fuerza total de la vida actual. No sé la respuesta, pero no puede provenir de una entidad comercial cuyo objetivo primordial es que regresemos para comprar más cosas a sus anunciantes.

Hay muchas opciones para elegir. Por ejemplo: podrían darnos mayor control sobre nuestros propios filtros. Un sitio podría llevar nuestra atención hacia los feeds que cumplen objetivos socialmente deseables, con lo que estaríamos más dispuestos a explorar y aceptar las diferencias.

Pero no es probable que se elijan esas opciones mientras hayamos cedido el control del flujo de nuestra información social a las entidades comerciales cuyo interés principal no es la salud de nuestra sociedad y nuestra cultura, sino su interés particular. Algunas veces esos intereses podrían coincidir, pero no de forma confiable ni con la frecuencia suficiente.

Así que estoy molesto porque Facebook jugó con nuestros sentimientos, pero me molesta mucho más lo que Facebook y otros sitios como ese hacen todo el tiempo.

Las opiniones recogidas en este texto pertenecen exclusivamente a David Weinberger.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad