Publicidad
Publicidad

Europa crea reglas para Inteligencia Artificial y evitar una crisis tecnológica

La Comisión Europea reveló su normatividad diseñada para influir en el desarrollo de sistemas de IA.
mar 09 abril 2019 04:00 PM
Futuristic graphical user interface concept.
Reino Unido propuso nuevas reglas que responsabilizan legalmente a las empresas de internet

IVANA KOTTASOVÁ

LONDRES - Las redes sociales se enfrentan a una crisis de confianza, por tal motivo Europa quiere asegurarse de que la Inteligencia Artificial (IA) no siga el mismo camino.

De hecho, la Comisión Europea reveló el lunes su normatividad ética diseñada para influir en el desarrollo de sistemas de IA antes de que se arraiguen profundamente en la sociedad.

Esta intervención podría ayudar a romper el patrón de los reguladores forzados a correr detrás de las tecnologías emergentes que derivan en consecuencias negativas no anticipadas.

La importancia de ello fue señalada cuando Reino Unido propuso nuevas reglas que responsabilizan legalmente a las empresas de internet por eliminar el contenido dañino en sus plataformas.

"Es como sentar las bases antes de que construyas una casa… ahora es el momento de hacerlo”, dijo Liam Benham, vicepresidente de asuntos regulatorios de Europa de IBM, que estuvo involucrado en la creación de la normatividad para la IA.

Publicidad

En este sentido, la Unión Europea ha tomado la delantera en la regulación de la tecnología, introduciendo una ley de privacidad de la información el año pasado a la vez que iba tras las grandes empresas de tecnología por su comportamiento monopólico e impago de impuestos.

Lee: ¿Cómo puede México aprovechar la inteligencia artificial?

La Inteligencia Artificial, ha captado la imaginación del público y producido advertencias terribles sobre su potencial de mal uso. Google, por ejemplo, cerró su nuevo consejo de ética en la IA la semana pasada después de que empleados exigieran la salida del grupo del presidente de un think tank conservador.

A su vez, la Comisión Europea escribió siete principios para guiar el desarrollo de la Inteligencia Artificial y la generación de confianza. Si bien la normatividad no es vinculante, podrían sentar las bases para acciones en los próximos años.

La transparencia es clave

Mariya Gabriel, la principal encargada de economía digital de Europa, dijo que las empresas que utilizan sistemas de IA deben ser transparentes con el público.

"La gente necesita estar informada cuando están en contacto con un algoritmo y no con otro ser humano”, dijo Gabriel. “Cualquier decisión tomada por un algoritmo debe ser verificable y explicada”.

Una empresa de seguros que rechaza una petición con base en un algoritmo, debe asegurarse de que el cliente sabe cómo y por qué se tomó la decisión. Un humano debe poder tomar el control y revisar la decisión.

No obstante, la Comisión Europea dijo que los futuros sistemas de IA deben ser seguros y confiables durante todo su ciclo vital. También dijo que la protección a la información debe ser una prioridad, con los usuarios en control de su propia información.

Los lineamientos ponen la responsabilidad firmemente en aquellos que construyen y despliegan los sistemas IA.

"Si una empresa establece un sistema de IA, esa empresa es responsable de él… esto es muy importante en caso de un accidente”, dijo Gabriel.

Evitar discriminación

Gabriel también dijo que las empresas necesitan asegurarse de que sus sistemas de IA sean justos, pues un algoritmo utilizado en el proceso de contratación producido utilizando información de una empresa que sólo contrata a hombres probablemente rechazará a las mujeres que se postulen.

"Si tienes información sesgada, puede ser un verdadero problema”, dijo Gabriel.

AlgorithmWatch, es un grupo sin fines de lucro el cual expresó que es una buena idea establecer lineamientos, ya que existen problemas con el enfoque de Europa.

"La normatividad se centra en la idea de una “IA confiable” y eso es problemático pues no es un término bien definido”, dijo Matthias Spielkamp, cofundador del grupo. “¿Quién confiará y quién debe ser confiable?”, añadió. También dijo que aún no es claro cómo se manejará la supervisión en el futuro.

Thomas Metzinger, filósofo y profesor de la Universidad de Mainz ayudó a redactar la normatividad, pero la criticó por no prohibir el uso de la Inteligencia Artificial en el desarrollo de armas.

Otros se preocupan por el impacto que puedan tener estas normas sobre la innovación.

"Nos preocupa que la granularidad de las normas dificultará a muchas empresas particularmente (a las pequeñas y medianas) su implementación”, dijo Antony Walker, CEO interino de TechUK, un grupo de la industria.

La Unión Europea ahora intentará solucionar estas dudas y otras en un programa piloto con empresas de Big Tech.

La inteligencia artificial aplicada en el arte y en sectores que no te imaginas

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad