“Las normativas actuales no son suficientes para garantizar la seguridad de los datos personales, prevenir fraudes y asegurar que los términos y condiciones sean claros”, apuntan.
Ocampo señaló que puntualmente es necesario regular cómo se comportan las empresas que ofrecen un producto y por ende la forma en que el consumidor recibe la información.
“En lo que puede mejorar es que se obligue a las empresas a hacer un uso más ético de la información que reciben, porque si bien las leyes lo prevén, no hay posibilidad de hacer análisis de riesgos. No están tan obligadas (las empresas), como si lo están en Europa, a hacer análisis de riesgos con las tecnologías nuevas que utilizan para hacer crecer sus operaciones”, agregó.
La especialista señaló que a este punto se puede hilar la protección de datos personales y la implementación ética de la Inteligencia Artificial aclarando de qué manera se utilizará.
El software de gestión de recursos humanos Work Meter apunta que uno de los riesgos más destacados de la implementación de IA es la invasión de la privacidad. Esto se debe a que esta tecnología requiere de grandes cantidades de datos para entrenar sus algoritmos, entre todo lo que recopila puede haber información sensible y personal.
"Sin un manejo adecuado, estos datos pueden ser utilizados de manera indebida, lo que podría resultar en la exposición de información personal y la vulneración de la privacidad de los individuos", señala la compañía.
Otro riesgo es que los sistemas de IA pueden ser blanco de ataques cibernéticos que buscan explotar vulnerabilidades para acceder a datos sensibles. Es decir que, de no está protegidos de manera adecuada, podrían resultar en la exposición de información personal.
Actualmente, el respaldo legal en esta materia está dispuesto en la Ley de protección de datos personales, a la cual, desde la perspectiva de Ocampo, se le podrían agregar cláusula sobre la regulación, el uso, el desarrollo y la implementación de los sistemas de IA.
A nivel mundial y nacional ya existen iniciativas y propuesta de regulación de la IA. En mayo de 2019, la OCDE se pronunció y proporcionó directrices de principios para el desarrollo responsable de la Inteligencia Artificial, estas fueron firmadas por 36 países, incluido México.