Publicidad
Publicidad

Estas son las reglas más avanzadas para controlar la IA

La UE está trabajando en una serie de medidas enfocadas en los posibles riesgos que la tecnología puede generar.
lun 15 mayo 2023 01:00 PM
ia-regulacion
Las reglas de la UE son de las propuestas más avanzadas a nivel mundial.

La Unión Europea (UE) es una de las regiones más avanzadas para controlar a la Inteligencia Artificial y es que el Parlamento Europeo aprobó una regulación que busca ser el referente de Occidente para controlar esta tecnología ante su vertiginosa evolución.

La legislación, conocida como Ley Europea de IA, es la primera regulación para los sistemas de IA en Occidente y adopta un enfoque donde las obligaciones de un sistema son proporcionales al nivel de riesgo que plantea. Cabe resaltar que en China también se ha diseñado un borrador de reglas para controlar tecnología como ChatGPT.

¿Cuáles son las reglas de la UE?

De acuerdo con la legislación, hay cuatro niveles de riesgo que puede plantear la IA: inaceptable, alto, limitado y riesgo mínimo o nulo. En el caso de las que pueden generar un riesgo inaceptable deben estar prohibidas, señala el documento.

Publicidad

Entre algunos de los ejemplos de IA que generan un riesgo inaceptable se encuentran aquellos sistemas que utilicen técnicas subliminales, de manipulación o engañosas para distorsionar el comportamiento. También aquellas que explotan las vulnerabilidades de individuos o grupos específicos.

Tampoco estarán permitidos los sistemas de categorización con base en atributos o características, al igual que los planteados para la clasificación social o la evaluación de la confiabilidad.

Según el documento, no se podrán usar sistemas de IA usados para predecir infracciones penales o administrativas (una tecnología así ya se usa en China) y tampoco aquellos que infieran emociones en la aplicación de la ley, la gestión de las fronteras, el lugar de trabajo o la educación.

Respecto a modelos como ChatGPT, la propuesta les exigirá a sus desarrolladores que antes de hacer públicos sus sistemas deberán aplicar controles de seguridad, medidas de gobernanza de datos y formas de que la información que usan para su entrenamiento no violen las leyes de derechos de autor.

Publicidad

El alcance de la legislación preocupa a los expertos

Este esfuerzo llega en un momento en que las grandes empresas de tecnología están haciendo públicos sus sistemas de Inteligencia Artificial generativa. Microsoft y OpenAI se han adelantado en esta carrera, a través de ChatGPT, mientras que Google anunció la versión pública de Bard la semana pasada.

Sin embargo, las reglas han preocupado a algunos sectores de la industria de la tecnología, pues organizaciones como la Asociación de la Industria de la Computación (CCIA, por sus siglas en inglés) y las Comunicaciones señaló que quizá su alcance se amplió demasiado, lo cual podría afectar a otras IA que fueran inofensivas.

“Es preocupante ver que amplias categorías de aplicaciones útiles de IA, que plantean riesgos muy limitados, o ninguno en absoluto, ahora enfrentarán requisitos estrictos o incluso podrían prohibirse en Europa, dijo el gerente de políticas de la CCIA, Boniface de Champris. Por otra parte, si bien la regulación fue aprobada en el Parlamento, está lejos de ser ua ley.

No obstante, otros expertos consideran que estas reglas pueden ser una forma de establecer un “estándar global” para regular la IA, al tiempo que otros países, como Estados Unidos, China o el Reino Unido también trabajan en el desarrollo de sus propias políticas en torno a la IA.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad