Posteriormente, en enero de este año, suspendió el acceso de los adolescentes a sus personajes de IA en todas sus aplicaciones a nivel mundial, bajo el argumento de que estaban desarrollando una versión actualizada para adolescentes, aunque también coincidía con el inicio de su juicio en Nuevo México.
Durante este caso se le acusó al gigante tecnológico de no proteger a los menores dentro de sus plataformas y la compañía finalmente perdió el caso, lo que representó la primera vez en que un tribunal declaró a Meta legalmente responsable por poner en peligro la seguridad de las infancias.
El caso concluyó a finales de marzo tras seis semanas de audiencias en las que participaron alrededor de 40 testigos, incluidos exempleados de la compañía, y se revisaron cientos de documentos internos, correos electrónicos e informes.
Como resultado del veredicto, Meta fue condenada a pagar 375 millones de dólares por concepto de daños y perjuicios, una cifra significativamente menor a los 5,000 dólares por cada uno de los aproximadamente 221,000 adolescentes que, según sus estimaciones, utilizan las plataformas de la compañía en la entidad que reclamaba el estado.
Entre los argumentos que las autoridades utilizaron durante el juicio destacaron que servicios como Facebook, Instagram y WhatsApp no contaban con mecanismos suficientes para proteger a los menores frente a abuso sexual y trata de personas. Además, argumentaron que los algoritmos de recomendación de la empresa facilitaban el contacto entre adultos y adolescentes.
Tras el veredicto, Torrez calificó la decisión como “una victoria histórica para cada niño y cada familia”, al asegurar que la empresa priorizó sus ganancias sobre la seguridad de los menores. Según el fiscal, los directivos de Meta conocían los riesgos asociados a sus productos, ignoraron advertencias internas y no informaron adecuadamente al público.