Publicidad

Síguenos en nuestras redes sociales:

Publicidad

¿Quién cuida a los moderadores de contenido en internet que quitan pornografía?

Integrantes de Microsoft del equipo contra abusos en línea afirman que no les advirtieron sobre los peligros relacionados con su trabajo y que no les dieron una asesoría para su bienestar.
dom 19 febrero 2017 06:10 AM
Ayuda
Ayuda Las rotaciones obligatorias, las sesiones semanales con el psicólogo y el apoyo para cónyuges son una necesidad para quienes trabajan como moderar de contenido en internet. (Foto: vgajic/Getty Images)

El internet tiene un lado oscuro y algunos humanos tienen que sumirse en sus profundidades para salvar a todos los demás.

Pornografía infantil, bestialismo, asesinatos violentos… eso es una parte de lo que los moderadores de contenido quitan de internet. ¿Pero quién los cuida a ellos?

Dos empleados de Microsoft, quienes presentaron una demanda en diciembre de 2016, dijeron que parte de su trabajo era ver esta clase de contenidos. Los hombres, que formaban parte del equipo contra abusos en línea de la empresa, afirman que no les advirtieron sobre los peligros relacionados con su trabajo y no les dieron una asesoría adecuada.

Lee: Facebook, bajo demanda por un caso de 'porno de venganza'

En consecuencia, según la demanda, sufren de trastorno por estrés postraumático (TEPT). Uno de ellos incluso afirma que ha tenido problemas para interactuar con su hijo.

Microsoft niega sus afirmaciones, pero la existencia misma de la demanda es un inquietante recordatorio de que la inteligencia artificial y los algoritmos no son suficiente para vigilar la red. Los humanos tienen una función y su participación tiene efectos residuales… cuyo alcance sigue siendo desconocido.

Publicidad

"Es el secretito perverso del sector, por decirlo así", dijo Sarah T. Roberts, profesora de Estudios de la Información en la Universidad de California, Los Ángeles, a CNNTech. "(A las empresas de tecnología) les gusta la idea de que la gente crea que todo se basa en algoritmos".

De hecho, los humanos son muy necesarios para identificar y denunciar el contenido inadecuado. En Microsoft, esto implicaba revisar los contenidos de secciones como Bing y Xbox, pero se necesitan moderadores prácticamente en todo lugar en el que la gente pueda publicar contenidos.

Lee: Pornografía, el arma de este 'hacker' para combatir a ISIS

Las nuevas tecnologías crean, inevitablemente, formas nuevas para que la gente suba y cree contenidos. Además, el auge de la transmisión de video en directo agrega un elemento complicado: "Es virtualmente imposible" que la tecnología modere los contenidos en vivo, dijo Roberts, quien ha estudiado la supervisión de contenidos comerciales desde 2010.

Roberts afirma que es difícil conocer el alcance del sector de la supervisión de contenidos porque el nombre de los cargos varía de empresa a empresa, algunos empleados firmaron acuerdos de confidencialidad, gran parte del trabajo se encarga a terceros y suele haber un flujo de trabajo muy alto. Sin embargo, estima que miles de personas están involucradas en la supervisión de contenidos en línea, ya sea actualmente o en empleos previos.

Stefania Pifer, psicoterapeuta dedicada específicamente a los traumas, es una de las fundadoras de The Workplace Wellness Project, proyecto que se implementó en 2011 con el fin de brindar a las empresas programas coherentes para vigilar a quienes desempeñan estas labores.

"Sí nos afecta ser testigos del dolor y del sufrimiento de otras personas porque somos humanos y la mayoría estamos programados para sentir empatía", dijo Pifer, quien trabajó en Google.

Dice que su labor consiste en "dar asesoría para el bienestar y la adaptación" y dijo que la demanda para sus servicios ha crecido a lo largo de los pasados dos años.

Lee: La industria del porno se une a la realidad virtual

Pifer y Naheed Sheikh, cofundadora del proyecto, personalizan su enfoque dependiendo de la situación específica. En general, organizan sesiones individuales y grupales una o dos veces al mes con los moderadores de contenidos y dan capacitación a los administradores para que sepan cómo apoyar a sus empleados.

"No es parte de la cultura prevalente que la gente hable de sus sentimientos", dijo Pifer, de 36 años. La forma en la que el trabajo afecta a la gente "es sumamente variable. ¿Cuáles son tus estrategias para sobrellevarlo, tus capacidades de adaptación, tus propias historias traumáticas?".

CNNTech contactó a varias empresas para pedirles detalles sobre sus moderadores de contenidos y sus políticas. Facebook, Instagram, Google, YouTube y Twitter no dieron declaraciones oficiales. Reddit entregó un comunicado escueto sobre la composición de su equipo.

Se considera que Microsoft es el líder de la detección de la pornografía infantil y da acceso sin costo a su software PhotoDNA a otras empresas para que le ayuden a impedir que se suba pornografía infantil a sus sitios .

Lee: Pornhub abre categoría para gente con debilidad visual

Los empleados, que salieron de Microsoft por incapacidad en 2013 y 2015 respectivamente, afirman que el programa de bienestar que se implementó cuando estaban trabajando no fue suficiente. Según el expediente, les dijeron que se tomaran un descanso para fumar, que se distrajeran jugando videojuegos o que se fueran temprano a su casa si se sentían afligidos.

Microsoft le envió a CNNTech sus políticas actuales, entre las que se contemplan reuniones individuales y grupales obligatorias con un psicólogo, herramientas que reducen el realismo de las imágenes y límites a los periodos diarios que los empleados pueden dedicar a esta labor.

La empresa señaló que su programa de bienestar es "un proceso, siempre hay aprendizaje y se aplican las investigaciones más novedosas sobre lo que podemos hacer para apoyar aún más a nuestros empleados".

"Microsoft toma muy en serio su responsabilidad de eliminar y reportar las imágenes de explotación sexual y de abuso de menores que se comparten a lo largo de sus servicios", señaló un portavoz de Microsoft en el comunicado que recibió CNNTech.

Lee: Cómo operaba el 'Rey del porno vengativo'?

La Technology Coalition, que informa a las empresas de tecnología cuáles son las mejores prácticas para manejar los abusos, tiene recomendaciones muy vagas sobre cómo cuidar a estos empleados.

Wells dijo a CNNMoney que las rotaciones obligatorias, las sesiones semanales con el psicólogo y el apoyo para cónyuges de moderadores son una necesidad.

En la demanda se pide el pago de daños y prejuicios a los empleados, así como cambios en las políticas.

"Me imagino que esta demanda será un llamado de atención", agregó Roberts.

No te pierdas de nada
Te enviamos un correo a la semana con el resumen de lo más importante.

¡Falta un paso! Ve a tu email y confirma tu suscripción (recuerda revisar también en spam)

Ha ocurrido un error, por favor inténtalo más tarde

Publicidad
Publicidad