Los detalles de la nueva Ley de IA
El proyecto de esta legislación surgió en 2021, antes del boom de las herramientas de IA generativa, pero de acuerdo con sus disposiciones, los riesgos de la IA se dividirán en cuatro categorías dependiendo el nivel de riesgo que puedan representar para los usuarios durante su uso.
La categoría más importante es la que representa un riesgo “inaceptable”, en donde entrarán todas aquellas tecnologías que deberían prohibirse, seguidas de formas de IA que conllevan tipos de peligros alto, medio y bajo.
Entre los sistemas que se prohibirán se incluyen aquellos que se dediquen a la puntuación social, reconocimiento de emociones o aquellos diseñados para explotar vulnerabilidades de las personas. En el caso de los de alto riesgo se tiene en cuenta aquellos aplicados a infraestructuras críticas: educación, capacitación vocacional o puedan influir en procesos democráticos.
Si bien este es un paso determinante por parte de los legisladores de la UE, algunos países del bloque habían abogado por la autorregulación en lugar de restricciones generales, bajo el argumento de que estas leyes podrían ser sofocantes para la innovación y representar un rezago frente al avance de otras potencias, como China y Estados Unidos.
Francia, Alemania e Italia fueron algunos de los países que presionaron para suavizar las restricciones y lo consiguieron, pues en el ámbito de los sistemas de “alto riesgo” lograron que se incluyeran dos nuevos niveles y algunas excepciones basadas en tareas de seguridad de la policía, como el hecho de que no se prohibirá la identificación biométrica remota en este tipo de labores.
Otra de las críticas que se le ha hecho a esta nueva regulación tiene relación con los datos que se utilizan para entrenar a los modelos de IA, pues la Ley de IA no creó nuevas regulaciones en este sentido y, por lo tanto, no prohíben a las empresas recopilar información, más allá de exigir que sigan las pautas del Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés).