Además, destaca que si bien son estándares dentro de Microsoft, también priorizan que sus clientes usen responsablemente sus modelos de IA, pues incluso hay casos de modelos con acceso a información biométrica, la cual puede ser sensible si es usada de forma maliciosa.
“Una forma responsable de usar esa data es determinar que únicamente se trata de un rostro”, es decir, tomar indicadores generales donde se determine que se trata del rostro de una persona y no de aspectos específicos que permitan conocer más información del individuo en cuestión.
A mediados de junio, Microsoft presentó el Estándar de IA responsable, un documento guía para desarrollar tecnología más confiable, donde la empresa estableció los seis valores centrales para que la tecnología sea responsable por diseño.
“La IA se está convirtiendo cada vez más en una parte de nuestras vidas y, sin embargo, nuestras leyes se están quedando atrás. No se han puesto al día con los riesgos únicos de la IA o las necesidades de la sociedad” ,problematiza Natasha Crampton, directora responsable de IA en Microsoft.