La regulación de la IA: ¿necesaria o imposible?
“Cuando ya vemos la necesidad de una regulación, lo peor que puede pasar es una mala regulación”, compartió Ana Rumualdo, directora del área de tecnologías digitales en el despacho de abogados Hogan Lovells.
La IA engloba muchas áreas que van más allá de ChatGPT y OpenAI, por lo que hablar de una “regulación” en términos generales es una labor compleja. No se puede regular de la misma manera un chatbot, que una plataforma o un sistema de seguridad.
En México, el diputado Ignacio Loyola Vera, del Partido de Acción Nacional (PAN) , quien presentó el proyecto de “Ley para la regulación ética de la Inteligencia Artificial para los Estados Unidos Mexicanos”, definió a la IA como “la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o razonamiento lógico”.
Esta propuesta de ley busca crear estructuras y apuntar hacia estándares éticos de creación, investigación y uso de la IA en el país, así como crear y regular un Consejo Mexicano de ética para la Inteligencia Artificial y la Robótica (Cmetiar).
Ante esto, Rumualdo compartió que es una definición “bastante floja” y que una de las preocupaciones desde el marco legal mexicano es que, dejar la regulación para un comité es no poner fundamentos ni basamentos de lo que puede aportar una regulación secundaria, porque “todo lo dejas a las reglas que crea un comité”.
En la Unión Europea, los esfuerzos por la regulación comenzaron desde hace un par de años. En 2020 se formó un Comité para regular la Inteligencia Artificial , que está buscando establecer requisitos de transparencia y responsabilidad para las empresas que desarrollan y utilizan IA, así como sanciones por incumplimiento.
Por otro lado, desde 2019 Canadá creó el “Consejo Asesor sobre Inteligencia Artificial” , donde un grupo de expertos en el tema asesoran al gobierno canadiense sobre el desarrollo de fortalezas y liderazgo del país en IA, la identificación de oportunidades para generar crecimiento económico y garantías que protejan a los ciudadanos.
La responsabilidad profesional al usar IA
Aunque no esté regulado, los ciudadanos y usuarios de herramientas de IA también tienen responsabilidades al usar la IA.
Por ejemplo, en el caso de los abogados, si utilizan ChatGPT tienen que tener cuidado con no revelar demasiada información, pues de acuerdo con Fernanda Serrano, asociada de Hogan Lovells, pueden cometer el delito de violación a la confidencialidad de datos. “Todo lo que le decimos a ChatGPT deja de ser confidencial y tenemos que dar elementos muy genéricos y no información privilegiada”.
Por otro lado, otra de las responsabilidades es verificar la veracidad de la información. No todo lo que dicen estos sistemas es certero y siempre debe de haber un humano por detrás corroborando la información.
En cuanto a los trabajos y obras de arte elaborados con estas herramientas, Romualdo compartió que siempre se deben citar. “La idea es que se ponga que es generado con IA, mientras tu haces el texto. Es algo colaborativo. Si tu le das la instrucción, es la respuesta que vas a obtener”.
Por otro lado, también preguntamos a ChatGPT qué se debe de hacer y complementó la información de Romualdo, agregando que es importante incluir:
- En la sección de métodos o descripción del trabajo, es importante decir que se implementó IA, incluyendo el tipo de algoritmo o modelo utilizado, los parámetros y la configuración de la IA.
- Si se utilizó un software o plataforma específica de IA para el trabajo, es importante mencionar el nombre y la versión del software en la sección de métodos o en los agradecimientos. Por ejemplo, si se utilizó Midjourney para crear una imagen, mencionarlo.
- Si se utilizó un conjunto de datos específico en el trabajo, es importante mencionar el nombre y la fuente del conjunto de datos en la sección de métodos o en los agradecimientos.