Las primeras dos categorías se refieren a riesgos nulos y mínimos. Sin embargo, las siguientes dos son las que preocupan a los reguladores. Por un lado está el riesgo alto, que se aplica a conjuntos de datos, por ejemplo, para dispositivos médicos o sistemas de toma de decisiones para préstamos, pues existe la posibilidad de discriminación.
Asimismo, aplica para aquellas infraestructuras críticas, como la educación, la capacitación vocacional o en donde se puedan influir procesos democráticos, mientras que la categoría “inaceptable” incluye aquellos sistemas que se dediquen a la puntuación social, reconocimiento de emociones o aquellos diseñados para explotar vulnerabilidades de las personas.
Este es un paso determinante por parte de la UE para regular la IA, pero algunos países del bloque habían abogado por la autorregulación en lugar de restricciones generales, bajo el argumento de que estas leyes podrían ser sofocantes para la innovación y representar un rezago frente al avance de otras potencias, como China y Estados Unidos.
Francia, Alemania e Italia fueron algunos de los países que presionaron para suavizar las restricciones y lo consiguieron, pues en el ámbito de los sistemas de “alto riesgo” lograron que se incluyeran dos nuevos niveles y algunas excepciones basadas en tareas de seguridad de la policía, como el hecho de que no se prohibirá la identificación biométrica remota en este tipo de labores.
¿Qué sigue para las grandes tecnológicas?
Esta regulación es de suma relevancia para el panorama tecnológico. En primer lugar, porque finalmente hay un regulador que vigilará los movimientos de las grandes empresas en medio del entusiasmo por la IA, un tema que ha motivado inversiones multimillonarias por parte de Microsoft, Apple, Amazon y Google, entre otras.
Una muestra de los efectos de esta regulación la dio Meta, la cual decidió restringir la disponibilidad de su modelo de IA, Llama, en Europa, debido a la incertidumbre que le generaba cumplir con las leyes de protección de datos de la región.
Y es que según la ley, las empresas deberán cumplir con requisitos de transparencia para evitar que los usuarios sean engañados, mientras que las sanciones serán escalonadas, según el tipo de categoría en la que hayan incurrido.
Por ejemplo, si una empresa viola la categoría “inaceptable” recibirá multas de hasta el 7% de su facturación global. En el caso de los otros niveles de riesgo, los castigos serán de entre el 1.5 y el 3% de sus ingresos mundiales.