Publicidad
Publicidad

Las empresas se enfrentan a riesgos si no regulan la IA

En el congreso Mobile 360 (M360), expertos destacaron la relevancia de las empresas de regular éticamente la IA y recomendaciones lara hacerlo.
jue 01 junio 2023 05:01 PM
regular-ia-ética
La regulación ética en el desarrollo de la IA es importante para que las empresas eviten riesgos.

La regulación de la Inteligencia Artificial (IA) ya no es una pregunta de si se debe o no hacer, sino de cómo tiene que hacerse de la mejor manera. “No es realista una pausa, pero sí avanzar hacia una regulación global basada en recomendaciones”, compartió en el congreso Mobile 360 Angel Melguizo, asesor de UNESCO en Inteligencia Artificial.

De acuerdo con él, las empresas presentan tres principales argumentos para no regular esta tecnología: la primera, que la regulación “mataría” la innovación; la segunda, “que no presenta riesgos”; y la tercera, que se pueden “compensar sus consecuencias negativas después”.

Aunque no todas las Inteligencias Artificiales representan riesgos e incluso la Unión Europea los ha clasificado en “riesgo inadmisible”, “alto riesgo”, “riesgo limitado” y “riesgo mínimo”, las empresas que no regulen sus desarrollos en IA se pueden enfrentar a numerosos problemas y el no hacerlo puede ser aún más costoso.

Publicidad

¿Cómo regular éticamente la IA?

La primera pregunta que se tienen que hacer los desarrolladores de IA es si lo que están haciendo es legal o no, compartió Covadonga Maestro, asociada de la consultora CMS.

Por otro lado, Elena Estalvillo, CEO para Centro-i para la Sociedad del Futuro, mencionó que las empresas pueden enfrentarse a importantes cargas financieras no previstas por no haber hecho un análisis de riesgo previo al desarrollo de la tecnología.

Otro de los riesgos importantes son también la pérdida reputacional, pues cada vez se vuelve un punto más relevante para los usuarios.

Entre algunos riesgos “inaceptables” que mencionó Estalvillo se encuentran:

  • Manipular el comportamiento
  • Explotar la vulnerabilidad de grupos o individuos
  • Hacer sistemas de crédito social (social scoring)
  • Predecir conducta delictiva y hacer una categorización biométrica

Por otro lado, los riesgos de “alto riesgo” los clasificó como:

  • Analizar solicitudes de empleo
  • Calificar perfiles para otorgar créditos
  • Manejar infraestructura crítica

Por otro lado, la UNESCO cuenta con una serie de recomendaciones para regular éticamente la IA, entre las cuales Melguizo destacó:

  1. Los algoritmos deben ser auditados: Se deben de proteger y revisar los datos personales de los usuarios
  2. No usarlo para vigilancia o social scoring: Los gobiernos no deben usar la IA para espiar a sus ciudadanos.
  3. Responsabilidad legal: Los responsables no son los algoritmos, sino las empresas que las desarrollan. Ellas tienen la obligación legal.
  4. Lucha activa contra el cambio climatico: La IA tiene que desarrollarse con responsabilidad socioambiental

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad