Publicidad
Publicidad

Frances Haugen: en Facebook, "las métricas toman la decisión"

Durante la sesión se habló de una posible partición de la empresa, pero la exempleada de la plataforma precisó que el enfoque regulatorio debe ir por otro lado.
mar 05 octubre 2021 01:10 PM
Frances Haugen testifica ante el Congreso de EU
Haugen fue quien filtró los documentos internos de la empresa que derivaron en investigaciones contra la tecnológica.

Frances Haugen es una ingeniera que trabajaba en Facebook como gerente de contenidos en el Departamento de Integridad Cívica de la empresa y fue quien estuvo detrás de la filtración de documentos confidenciales que expuso el medio estadounidense Wall Street Journal. La decisión de Haugen para hacer esto se basó en una llamada de atención a los reguladores en torno a la seguridad de niños y jóvenes de todo el mundo.

A partir de que salió del anonimato, Haugen fue llamada por el congreso de Estados Unidos con el fin de declarar en torno a las políticas internas de la plataforma, poniendo especial atención en el tema del funcionamiento del algoritmo, la regulación en cuanto a privacidad y seguridad de los usuarios y la posibilidad incluso de romper la compañía.

¿Qué pasó en la audiencia de Frances Haugen ante el Congreso de EU?

El senador Richard Blumenthal fue el encargado de abrir la conversación y retomó parte de las declaraciones de Haugen, donde señalaba que “Facebook ha puesto las ganancias por delante de las personas” y donde indicó su preocupación por la desinformación y adicción que existen en torno a plataformas como Instagram y Facebook. "Espero que discutamos si existe un algoritmo seguro", dijo Blumenthal.

Publicidad

Por su parte, la senadora Marsha Blackburn mostró interés por los cambios que podría traer este nuevo caso con la empresa de Mark Zuckerberg, pues el fin que busca el Congreso es mejorar la seguridad de los niños en las plataformas de la tecnológica, algo en lo que la exempleada de Facebook coincidió.

“Estos problemas tienen solución. Es posible una red social más segura y que respete la libertad de expresión”, dijo Haugen. "Facebook puede cambiar, pero claramente no lo hará por sí solo". Por lo que hizo énfasis en la regulación de la compañía ante el Congreso.

Entre los problemas que enumeró Haugen está el tema de falta de personal para poder moderar y revisar los contenidos que se distribuyen en las plataformas y el peso que tienen este tipo de departamentos hacia herramientas como la Inteligencia Artificial, pues la ingeniera los considera insuficientes.

Otro problema que señaló Haugen es en dónde se basa la toma de decisiones. “Mark ha construido una organización que se basa en gran medida en métricas. Está destinado a ser plano. No hay responsabilidad unilateral ”, dijo. "Las métricas toman la decisión". Por lo que durante la audiencia, reafirmó sus declaraciones hechas tanto en el programa 60 minutes, como los testimonios retomados por el WSJ.

Publicidad

Regular la Sección 230

En octubre de 2020, las grandes tecnológicas fueron llamadas al congreso para discutir la Sección 230, una iniciativa que retomó el senador John Thune durante esta nueva audiencia, donde se cuestionó a Haugen sobre si un cambio en esta ley podría alentar a Facebook a cambiar sus algoritmos.

“Creo que si tuviéramos la supervisión adecuada o si reformamos la Sección 230 para hacer que Facebook sea responsable de las consecuencias de sus decisiones de clasificación intencionales, creo que se desharían de la clasificación basada en el compromiso porque está provocando que los adolescentes estén expuestos a más anorexia o contenido dañino. Está separando a las familias y, en lugares como Etiopía, está literalmente avivando la violencia étnica”, dijo Haugen.

La Ley 230 es una normativa que se aprobó en 1996 y protege a los sitios web de demandas si un usuario publica algo ilegal, aunque existen excepciones por derechos de autor, materiales relacionados con trabajo sexual y violaciones a la Ley Penal Federal de Estados Unidos.

La idea de la regulación es basarse en la Primera Enmienda en la que el gobierno estadounidense no puede restringir la mayoría de las formas de expresión, pero que ante esto, la pluralidad de la conversación no afecte legalmente a las empresas, sin embargo, hace unos meses el presidente estadounidense Dolnald Trump emitió una orden ejecutiva para regular esta Ley, argumentando que las empresas deben ser más proactivas y claras en el uso de la tecnología que utilizan para moderar contenido.

Publicidad

“Las empresas tienen un control del 100% sobre sus algoritmos, y Facebook no debería dejar pasar las elecciones que hace para priorizar el crecimiento, la viralidad y la reactividad sobre la seguridad pública”, dijo Haugen. "Están pagando sus ganancias ahora mismo con nuestra seguridad".

Sin embargo, a pesar de que se discutió sobre una posible partición de la empresa, la exempleada de Facebook dijo que los problemas sobre seguridad se basan más en el diseño de los algoritmos.

“Los problemas aquí tienen que ver con el diseño de algoritmos, de IA y la idea de que la IA no es inteligente”, dijo. “Si separa Facebook e Instagram, la mayor parte del dinero publicitario se destinará a Instagram, y Facebook seguirá siendo ese Frankenstein que está poniendo en peligro vidas en todo el mundo; solo que ahora, no habrá dinero para financiarlo".

Las investigaciones del WSJ dieron como resultado una tendencia hacia los discursos de odio en la plataforma.

Entre las revelaciones que hizo el diario estadounidense se encuentran los efectos nocivos a la salud mental de las adolescentes que consumen contenido por medio de Instagram, así como la empresa sabía que grupos del crimen organizado reclutaban miembros a través de su plataforma, pero no actuó para evitar tales acciones.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad