Mark, un padre en Estados Unidos, denunció que la Inteligencia Artificial de Google marcó las imágenes de su hijo enfermo como materia de abuso sexual infantil (MASI), además de que cerró sus cuentas y presentó un informe ante el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), lo cual derivó en una investigación policial en su contra.
Este caso se hizo público gracias a un reciente informe del New York Times, sin embargo, sucedió en febrero de 2021, cuando los consultorios aún estaban cerrados por la covid-19. El padre notó una hinchazón en la zona genital de su hijo y, a pedido de una enfermera, envió imágenes del problema para una videoconsulta.
Si bien el médico le recetó un antibiótico para curar la infección, un par de días después, el padre recibió una notificación por parte de Google donde se le indicaba que su cuenta había sido bloqueada por “contenido dañino”, el cual era una “violación grave de las políticas de Google y podría ser ilegal”.
Google anunció el lanzamiento de su kit de herramientas de IA de seguridad de contenido en 2018, bajo el objetivo de “identificar de manera proactiva material de abuso sexual infantill nunca antes vistas que puedan ser revisadas y, si se confirman como tal, eliminarlas e informarlas lo más rápido posible”.