Síguenos en nuestras redes sociales:

Publicidad

Nuestras Historias

Facebook debe ser más transparente en materia de suicidios

En su blog, la red social detalla cómo la IA busca patrones en publicaciones o comentarios que pueden contener referencias a suicidios o autolesiones.
Redes sociales
La regulación de los datos que se generan en empresas de tecnología debe hacerlo de forma independiente

(CNN) - Un par de expertos en salud pública han pedido a Facebook que sea más transparente en la forma en que tamiza las publicaciones en busca de riesgo de suicidio y que siga ciertas pautas éticas, incluido el consentimiento informado entre los usuarios.

El gigante de las redes sociales ha dicho que trabaja en la prevención del suicidio y que ha ayudado a los primeros respondientes a realizar miles de revisiones de bienestar a nivel mundial, según los informes recibidos a través de su iniciativa. Los expertos dijeron que el ensayo de Facebook para reducir la muerte por suicidio es "innovador" y merece "un elogio por su ambicioso objetivo de utilizar la ciencia de la información para mejorar la salud pública".

¿Pero debería cambiar Facebook la forma en que monitorea a los usuarios en busca de riesgo de suicidio?

Lee: Zuckerberg planea integrar WhatsApp, Instagram y Facebook Messenger

Informar a los usuarios

Desde 2006, Facebook ha trabajado en la prevención del suicidio con expertos en prevención y seguridad, según la compañía.

Publicidad

En 2011, Facebook se asoció con la red estadounidense National Suicide Prevention Lifeline o Línea Nacional de Prevención del Suicidio para emprender esfuerzos en ese frente, entre ellos permitir que los usuarios reporten contenido suicida que puedan ver publicado por un amigo en Facebook. La persona que publicó el contenido recibe un correo electrónico de Facebook animándolo a que llame a la Línea Nacional de Prevención del Suicidio o chatee con un especialista en casos de crisis.

En 2017, Facebook amplió los esfuerzos de prevención del suicidio incluyendo inteligencia artificial que puede identificar publicaciones, videos y transmisiones de Facebook Live que contienen pensamientos o contenido suicida. Ese año, la Línea Nacional de Prevención del Suicidio dijo que estaba orgullosa de asociarse con Facebook y que las innovaciones de la red social permiten a las personas buscar apoyo con mayor facilidad.

Lee: Confetti, el primer paso de Facebook para ser YouTube

"Es importante que los miembros de la comunidad, ya sea que estén en línea o fuera de línea, no sientan que son espectadores impotentes cuando ocurre un comportamiento peligroso. El enfoque de Facebook es único. Sus herramientas permiten que los miembros de su comunidad se preocupen activamente, brinden apoyo e informen sus inquietudes cuando sea necesario", dijo John Draper, director de la Línea Nacional de Prevención del Suicidio, en un comunicado de prensa en 2017.

El 11 de enero, la Línea Nacional de Prevención del Suicidio dijo a CNN que "ha asesorado a Facebook en el desarrollo de sus herramientas y guías para la prevención del suicidio".

Cuando las herramientas de inteligencia artificial (IA) detectan una autolesión potencial, esas publicaciones pasan por el mismo análisis humano que las publicaciones reportadas directamente por los usuarios de Facebook.

Lee: Legisladores de Reino Unido acusan a Facebook de romper las reglas

La decisión de utilizar IA fue parte de un esfuerzo para brindar mayor apoyo a los usuarios en riesgo, pues la compañía había recibido críticas por su función Facebook Live, mediante la cual algunos usuarios han transmitido eventos gráficos en vivo, incluido el suicidio.

¿Cuál es la estrategia detrás del juego de Facebook, Confetti?

En su blog, Facebook detalla cómo la IA busca patrones en publicaciones o comentarios que pueden contener referencias a suicidios o autolesiones. Según Facebook, comentarios como "¿Estás bien?" y "¿Puedo ayudar?" pueden ser un indicador de pensamientos suicidas.

Si la AI u otro usuario de Facebook alertan sobre una publicación, la compañía la revisa. Si se determina que la publicación necesita una intervención inmediata, Facebook trabaja con los primeros respondientes, como los departamentos de policía, para enviar ayuda.

Lee: Usas Facebook, aunque no creas que usas Facebook

Sin embargo, un artículo publicado el 11 de enero en la revista Annals of Internal Medicine afirma que a Facebook le falta transparencia y ética en sus esfuerzos para evaluar las publicaciones de los usuarios, identificar a aquellos que parecen estar en riesgo de suicidio y alertar a los servicios de emergencia de ese riesgo.

El artículo argumenta que los esfuerzos de prevención del suicidio de Facebook deben seguir los mismos estándares y ética que se exige de la investigación clínica, como la necesidad de revisión por parte de expertos externos y el consentimiento informado de las personas incluidas en los datos recopilados.

El artículo está firmado por el doctor John Torous, director de la división de psiquiatría digital en el Departamento de Psiquiatría del Centro Médico Beth Israel Deaconess en Boston, y por Ian Barnett, profesor de bioestadística en la Facultad de Medicina Perelman de la Universidad de Pensilvania.

Lee: Alemania le da un ultimátum a Facebook

"Hay una necesidad de transparencia y discusión en el tema de la innovación en el área de la salud mental en general. Creo que hay un gran potencial para que la tecnología mejore la prevención del suicidio, ayude con la salud mental en general, pero las personas deben ser conscientes de que estas cosas están sucediendo y que, de alguna manera, pueden ser parte de un experimento", dijo Torous.

"Todos estamos de acuerdo en que queremos innovación en la prevención del suicidio. Queremos nuevas formas de llegar a las personas y ayudarlas, pero queremos que se haga de una manera ética, transparente y colaborativa. Yo diría que el usuario promedio de Facebook ni siquiera está consciente de que esto está sucediendo. Por lo tanto, ni siquiera está informado al respecto", apuntó.

En 2014, los investigadores de Facebook realizaron un estudio sobre si el contenido negativo o positivo mostrado a los usuarios provocaba que los usuarios produjeran publicaciones negativas o positivas. Ese estudio causó indignación, ya que los usuarios afirmaron que ni siquiera estaban al tanto de que formaban parte de él.

Lee: Cerrar Facebook = más feliz, pero menos informado, según estudio

El investigador de Facebook que diseñó dicho experimento, Adam D.I. Kramer dijo en un post que la investigación era parte de un esfuerzo por mejorar el servicio, no para incomodar a los usuarios. Desde entonces, Facebook ha realizado otros esfuerzos para mejorar su servicio.

La semana pasada, la compañía anunció que se ha asociado con expertos para ayudar a prevenir autolesiones y suicidios. El anuncio se hizo después de que circularan noticias sobre el suicidio de una niña en Reino Unido cuya cuenta de Instagram (propiedad de Facebook) al parecer contenía material angustioso sobre el suicidio.

"Los expertos en prevención del suicidio dicen que una de las mejores maneras de prevenirlo es que las personas en crisis escuchen a amigos y familiares que se preocupan por ellos. Facebook se encuentra en una posición única para ayudar debido a las amistades que las personas tienen en nuestra plataforma, podemos conectar a las personas angustiadas con amigos y organizaciones que pueden brindar apoyo”, apuntó Antigone Davis, responsable global de seguridad de Facebook, cuando se le preguntó sobre el artículo de Annals of Internal Medicine.

Lee: Facebook evitará injerencias en las elecciones europeas con esta estrategia

"Los expertos también coinciden en que lograr que la gente ayude lo más rápido posible es crucial, es por eso que estamos utilizando la tecnología para detectar de manera proactiva el contenido que podría estar expresando pensamientos de suicidio. Estamos comprometidos a ser más transparentes sobre nuestros esfuerzos de prevención del suicidio", dijo ella.

Facebook también ha señalado que el uso de la tecnología para detectar de forma proactiva el contenido en el que alguien podría expresar pensamientos suicidas no equivale a recopilar datos de salud. La tecnología no mide el riesgo general de suicidio de una persona o nada relativo a su salud mental, aseguró la empresa.

Así es como Facebook logró conquistar al mundo en 15 años

Lo que piden los expertos en salud

Arthur Caplan, profesor y jefe fundador de la división de bioética de NYU Langone Health en Nueva York, elogió a Facebook por querer ayudar en la prevención del suicidio, pero dijo que el artículo recién publicado es correcto y que la red social debe tomar medidas adicionales para una mejor privacidad y ética.

Lee: Facebook logra ganancias récord a pesar de escándalos

"Es otra área en la que las empresas comerciales privadas están lanzando programas destinados a hacer el bien, pero no estamos seguros de qué tan confiables son o con qué nivel de privacidad tratan la información que recopilan, sea Facebook u otra firma", dijo Caplan.

"Esto nos lleva a la pregunta general: ¿estamos regulando suficientemente a las grandes redes sociales? Incluso cuando intentan hacer algo bueno, eso no significa que lo hagan bien", dijo.

En opinión de David Magnus, profesor de medicina y ética biomédica en la Universidad de Stanford, es probable que varias compañías de tecnología, entre ellas Amazon y Google, tengan acceso a big data de salud o lo tengan en el futuro. "Todas estas entidades privadas que no se consideran principalmente como entidades o instituciones de salud están en condiciones de tener potencialmente mucha información de salud, especialmente utilizando técnicas de aprendizaje automático. Al mismo tiempo, están casi completamente fuera del sistema regulatorio que actualmente tenemos y que existe para controlar ese tipo de instituciones", dijo.

Lee: Un correo malicioso roba contraseñas de Instagram

Por ejemplo, Magnus señaló que la mayoría de las empresas tecnológicas están fuera del ámbito de aplicación de la Política Federal para la Protección de Sujetos Humanos, que rige la investigación en humanos.

"Esta información médica que están recabando (y sobre todo una vez que puedan usar el aprendizaje automático para hacer predicciones de salud y tener un conocimiento médico de estas personas) está protegida en el ámbito clínico por leyes como la Ley de Responsabilidad y Portabilidad de Seguros Médicos (HIPAA) que protegen a cualquiera que esté recibiendo atención médica a través de lo que se llama una entidad regulada", dijo Magnus.

"Pero Facebook no es una entidad regulada, Amazon no es una entidad regulada, Google no es una entidad regulada. Por lo tanto, no tienen que cumplir con los requisitos de confidencialidad establecidos para la forma en que manejamos la información médica", dijo.

Lee: Facebook confirma la desaceleración de su crecimiento

La ley HIPAA de Responsabilidad y Portabilidad del Seguro de Salud exige el manejo seguro y confidencial de la información médica protegida de una persona y aborda la divulgación de esa información cuando sea necesario.

Las únicas protecciones de privacidad que tienen los usuarios de las redes sociales son los acuerdos que se detallan en los documentos de política de la compañía que uno firma o “clica” para aceptar al configurar su cuenta, explicó Magnus.

"Hay algo realmente peculiar en implementar un programa de control de salud pública a través de estas compañías que no están regidas por las estructuras reguladoras de las que hablamos y, como están fuera de su dominio, sus investigaciones y los algoritmos en sí mismos son completamente opacos" señaló el profesor de ética biomédica.

Lee: El éxito puede costarle caro a Facebook

El hermetismo

Es un motivo de preocupación que los esfuerzos de prevención del suicidio de Facebook no estén sujetos a los mismos estándares éticos que la investigación médica, dijo el doctor Steven Schlozman, codirector del Clay Center for Young Healthy Minds en el Hospital General de Massachusetts.

"En teoría, me encantaría que pudiéramos aprovechar el tipo de datos que recopilan todos estos sistemas y usarlos para atender mejor a nuestros pacientes. Eso sería increíble. Pero no me gustaría que fuera un proceso cerrado, sino que se abra a los reguladores externos... Me encantaría que haya algún tipo de consentimiento informado ", dijo Schlozman.

"El problema es que todo esto es tan hermético y cerrado por parte de Facebook, y Facebook es una empresa multimillonaria con fines de lucro. Por lo tanto, es difícil ignorar la posibilidad de que estos datos se recopilen y se usen para cosas distintas al supuesto propósito benévolo de la prevención. Realmente parece como si estuvieran transgrediendo numerosos límites éticos preestablecidos", indicó.

No te pierdas de nada
Te enviamos un correo a la semana con el resumen de lo más importante.

¡Falta un paso! Ve a tu email y confirma tu suscripción (recuerda revisar también en spam)

Ha ocurrido un error, por favor inténtalo más tarde

Publicidad