"No importa qué tan grande sea la visión de Musk, necesitas a un equipo con habilidades superiores y a una fuerza de trabajo muy calificada para (re)construir una plataforma viable y para responder a las obligaciones de la Unión Europea", añadió Tromble a la AFP.
Junto a los ingenieros, se necesitan equipos legales y normativos que mantengan los datos de los usuarios a salvo de publicaciones peligrosas.
"En realidad, es casi incontable lo que Twitter tiene que pensar sobre la seguridad de sus usuarios", opinó Tromble.
Los problemas de ciberseguridad van desde hackers pasando por lobos solitarios, grupos organizados hasta ataques orquestados por estados.
También hay "malos actores" que se juntan en una especie de cuadrilla para atacar objetivos puntuales en Twitter, en una táctica conocida como "dog piling".
"En este momento, uno de mis mayores temores es que despidos o incluso renuncias a gran escala signifiquen que ese sistema, ya imperfecto, retroceda", estimó Tromble.
Perder empleados de los equipos que combaten las demandas intrusivas de la policía o de las agencias gubernamentales que solicitan datos de los usuarios, implica que la experiencia acumulada se vaya también con ellos, añadió.
El problema del tuit
Musk está haciendo méritos para recibir un llamado de atención por su enfoque de "dejar hacer, dejar pasar" a la hora de moderar contenido, consideró Emma Llanso, del Centro para la Democracia y la Tecnología.
Aunque Musk anunció el viernes que formará un comité para evaluar la política futura de la red social sobre publicaciones y el restablecimiento de cuentas bloqueadas.
La ley estadounidense es permisiva sobre dejar que las plataformas decidan sus políticas de contenido y salven cualquier responsabilidad por lo que publiquen sus usuarios, sin embargo eso podría cambiar pronto, indicó Llanso.
La Suprema Corte de Estados Unidos, en una decisión que podría tener diferentes alcances, está a punto de escuchar dos casos que desafían la inmunidad legal de las compañías de internet respecto a lo que publican sus usuarios.
En su decisión, el alto tribunal podría reducir la inmunidad de las compañías de redes sociales y obligarlas a rendir cuentas por lo que ofrecen a sus usuarios como contenido "recomendado".
"Hay muchas decisiones de clasificación de contenido que el algoritmo debe tomar cuando determina qué tuits ve el usuario", explica Llanso.
"¿Eso lo hace contenido recomendado?", se pregunta.
Musk ha dicho que quiere depender más del software y menos de las personas para moderar el contenido.
Entre los casos, la Suprema Corte también considerará si los estados pueden dictar reglas de contenido a las redes sociales.
Y si bien actualmente hay una base sólida para que Musk haga lo que le antoje con la moderación de contenido en Estados Unidos, las leyes son más restrictivas en Europa y otras regiones.
"Muchos países alrededor del mundo están considerando endurecer sus políticas contra el amplio margen de maniobra que tienen hoy los servicios de redes sociales para establecer políticas de contenido a su medida", advirtió Llanso.
Así, un mosaico de varias leyes de moderación obligaría a Twitter a determinar en tiempo real qué se muestra y dónde.
Cuando Musk no cumplía aún 24 horas a la cabeza de Twitter, ya había personajes con malas intenciones probando los límites de la red social, apuntó Tromble.
"Y cuando los discursos de odio, el doxxing (publicación de información privada o de identificación con objetivos maliciosos) y el acoso se escabullen, suceden daños reales".
Incluso si no hay consecuencias legales por permitir a Twitter dar pasos en falso, hay consecuencias en el negocio, indicó India McKinney, directora de asuntos federales de la Fundación Electronic Frontier.
"La gente está buscando un lugar a dónde ir", dice McKinney sobre algunos usuarios que ya están considerando alternativas a Twitter. "Eso es una oportunidad para alguien, eso es seguro".