Publicidad
Publicidad

El paso a paso para regular la Inteligencia Artificial

Brian Green, profesor y director de Ética Tecnológica, compartió recomendaciones para gobiernos y empresas para regular la IA. Te contamos cuáles son y el panorama de la legislación en México.
vie 08 marzo 2024 05:28 AM
regulaciones-internacionales-ia
La regulación de la IA a nivel global.

Cada vez más empresas y gobiernos se suman a la regulación de la Inteligencia Artificial (IA). Desde el Parlamento Europeo hasta compañías como Microsoft o IBM, el garantizar que los sistemas de IA sean seguros, transparentes y beneficiosos para la humanidad es un debate que no cesa. Pero regular algo que se desconoce, o tan novedoso como lo es la IA, no es una tarea sencilla.

Incluso, este es un tema que los mismos creadores y directivos de las grandes compañías de tecnología están alertando. Sam Altman, el CEO de OpenAI, alertó que la IA podría ser un peligro para la humanidad; Brad Smith, presidente de Microsoft, dijo que los gobiernos tienen que “acelerar” su regulación en torno a la IA; y Sundar Pichai, el CEO de Google, hizo un pacto con la UE antes de regular la tecnología en Europa.

Pero, de acuerdo con Yuval Harari, historiador, filósofo y autor best-seller, “si el mejor talento humano se va a las grandes empresas de IA y solo unos pocos van a las instituciones regulatorias, no hay posibilidad de regular”.

Brian Green es profesor y director de Ética Tecnológica en la Universidad de Santa Clara y parte de su trabajo ha sido asesorar empresas y gobiernos en torno a la regulación de IA. En una conferencia organizada por Needed Education, compartió una guía para hacerlo.

Publicidad

¿Cómo regular la IA?

Estas son las principales recomendaciones que ofrece el profesor Green al momento de intentar regular la IA:

  1. Reconocer el problema ético

Una de las principales preguntas que deben hacerse son: ¿cuáles son los valores que están en juego y quiénes serán los principales afectados? También se debe considerar si la decisión o situación está dañando a un grupo de personas, o si es benéfico para otras, y cuestionarse si este problema se trata meramente de legalidad o de eficiencia.

2. Recabar la información

¿Cuáles son los hechos más importantes para este caso? ¿Qué datos y casos ya se conocen? identificar qué grupos o individuos serán los más afectados y consultarlos a todos. Una vez que se recabe la información, evaluar cuáles podrían ser las posibles consecuencias después de la regulación.

Una de las herramientas que propone Green es “expandir el círculo ético”. Es decir, asegurarse que los intereses morales de todos los involucrados hayan sido tomados en cuenta y cómo impacta a las comunidades.

3. Evaluar con una perspectiva ética

Las preguntas que se deben hacer son:

  • ¿Qué opciones cuidan de mejor manera los derechos de los involucrados?
  • ¿Qué opciones dan un trato justo a las personas?
  • ¿Qué opción hará un mayor bien a los involucrados?
  • ¿Cuál opción es mejor para la comunidad en general y no solamente para unos cuantos actores?
  • ¿Qué opción dirige hacia lo que aspiramos a ser?
  • ¿Qué opción toma en cuenta de manera más apropiada las relaciones, preocupaciones y sentimientos de los involucrados?

Un consejo que proporcione Green es “pensar en las personas terribles” para identificar cómo estos grupos o individuos pueden abusar o hacer mal uso de la tecnología.

4. Tomar una decisión y probarla

Una vez hecha la investigación y los cuestionamientos, se propone la regulación pero deben de escucharse a las personas expertas en el tema y la opinión pública. Una manera de probar la decisión es preguntarse: ¿qué diría la opinión pública al respecto?

Otra de las herramientas que plantea Green es el “pre-mortem ético”. Esto significa, identificar cómo podría fracasar la propuesta, comprenderlo y prevenirlo.

5. Actuar y reflexionar en torno a los resultados

Preguntarse si la decisión tuvo el resultado esperado y qué se puede aprender de ella, para seguir regulando. Green sugiere crear canales para invitar a la retroalimentación, así como proyectos de investigación una vez hecha la regulación para seguir obteniendo datos cualitativos para seguir desarrollando regulaciones éticas.

El panorama de la regulación de la IA en Mexico

México está lejos de una regulación como la que se está llevando a cabo en la Unión Europea e, incluso, Yuval Harari mencionó en una conferencia que este es uno de los grandes desafíos a los que se enfrentan los países Latinoamericanos.

De acuerdo con el filósofo e historiador, es probable que se creen muchos empleos nuevos en los países líderes de la revolución de la IA, como Estados Unidos y China, mientras que otros países sufrirán una pérdida masiva de empleos.

“Para prevenir este escenario peligroso, se necesita cooperación internacional entre países que podrían estar en riesgo de quedarse atrás y convertirse en nuevas colonias de datos”, dijo Harari, haciendo un llamado a que los países de Latinoamérica se unan para contrarrestar estos efectos, incluyendo México.

En mayo del año pasado, el diputado Ignacio Loyola Vera propuso la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica, creando también el Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica. Sin embargo, a casi un año de esta iniciativa no han habido avances sustanciales.

La senadora Alejandra Lagunes Soto Ruíz compartió que, como resultado de las mesas de trabajo que se llevan a cabo en el Senado, se elaboró un documento con recomendaciones para que los candidatos a la Presidencia de la República promuevan la regulación de la Inteligencia Artificial e incluyan esta materia en su propuesta para el Plan Nacional de Desarrollo.

Hay 31 propuestas en el Senado sobre cómo regular la IA Sin embargo, 28 se enfocan en definir qué acciones delictivas podrían realizarse con esta tecnología. Solo dos propuestas sugieren cambios en la Constitución para regular el uso de la IA.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad