Publicidad
Publicidad

La IA se está regulando, pero como usuario tienes responsabilidades

En varios países se está hablando sobre cómo regular la IA y en México existe una propuesta de ley al respecto. Pero, ante la falta de regulación, hay responsabilidades que los usuarios deben saber.
mié 19 abril 2023 05:00 PM
ia-regulacion
Las reglas de la UE son de las propuestas más avanzadas a nivel mundial.

En febrero de este año, una tira de cómics llamada Zarya of the Dawn perdió los derechos de autor de sus imágenes por una razón: no detalló que fueron creadas con el programa de Inteligencia Artificial (IA) Midjourney.

Si bien la Oficina de Derechos de Autor de Estados Unidos aprobó la protección del texto, negó la de las imágenes dentro de la novela gráfica. Para los abogados de Kris Kashtanova, la autora, representó una victoria parcial, pero ahora buscan ampliar la protección de derechos de autor a las obras creativas realizadas con herramientas de IA.

La regulación de esta herramienta aún no encuentra piso parejo. Mientras países como Italia están prohibiendo el uso de herramientas como ChatGPT y otros países como China, Irán o Rusia ni siquiera tienen acceso a OpenAI, en Estados Unidos ya se encuentran ante este tipo de dilemas y la comisión de la Unión Europea está explorando crear un marco regulatorio para la IA.

Publicidad

La regulación de la IA: ¿necesaria o imposible?

“Cuando ya vemos la necesidad de una regulación, lo peor que puede pasar es una mala regulación”, compartió Ana Rumualdo, directora del área de tecnologías digitales en el despacho de abogados Hogan Lovells.

La IA engloba muchas áreas que van más allá de ChatGPT y OpenAI, por lo que hablar de una “regulación” en términos generales es una labor compleja. No se puede regular de la misma manera un chatbot, que una plataforma o un sistema de seguridad.

En México, el diputado Ignacio Loyola Vera, del Partido de Acción Nacional (PAN) , quien presentó el proyecto de “Ley para la regulación ética de la Inteligencia Artificial para los Estados Unidos Mexicanos”, definió a la IA como “la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o razonamiento lógico”.

Esta propuesta de ley busca crear estructuras y apuntar hacia estándares éticos de creación, investigación y uso de la IA en el país, así como crear y regular un Consejo Mexicano de ética para la Inteligencia Artificial y la Robótica (Cmetiar).

Ante esto, Rumualdo compartió que es una definición “bastante floja” y que una de las preocupaciones desde el marco legal mexicano es que, dejar la regulación para un comité es no poner fundamentos ni basamentos de lo que puede aportar una regulación secundaria, porque “todo lo dejas a las reglas que crea un comité”.

En la Unión Europea, los esfuerzos por la regulación comenzaron desde hace un par de años. En 2020 se formó un Comité para regular la Inteligencia Artificial , que está buscando establecer requisitos de transparencia y responsabilidad para las empresas que desarrollan y utilizan IA, así como sanciones por incumplimiento.

Por otro lado, desde 2019 Canadá creó el “Consejo Asesor sobre Inteligencia Artificial” , donde un grupo de expertos en el tema asesoran al gobierno canadiense sobre el desarrollo de fortalezas y liderazgo del país en IA, la identificación de oportunidades para generar crecimiento económico y garantías que protejan a los ciudadanos.

La responsabilidad profesional al usar IA

Aunque no esté regulado, los ciudadanos y usuarios de herramientas de IA también tienen responsabilidades al usar la IA.

Por ejemplo, en el caso de los abogados, si utilizan ChatGPT tienen que tener cuidado con no revelar demasiada información, pues de acuerdo con Fernanda Serrano, asociada de Hogan Lovells, pueden cometer el delito de violación a la confidencialidad de datos. “Todo lo que le decimos a ChatGPT deja de ser confidencial y tenemos que dar elementos muy genéricos y no información privilegiada”.

Por otro lado, otra de las responsabilidades es verificar la veracidad de la información. No todo lo que dicen estos sistemas es certero y siempre debe de haber un humano por detrás corroborando la información.

En cuanto a los trabajos y obras de arte elaborados con estas herramientas, Romualdo compartió que siempre se deben citar. “La idea es que se ponga que es generado con IA, mientras tu haces el texto. Es algo colaborativo. Si tu le das la instrucción, es la respuesta que vas a obtener”.

Por otro lado, también preguntamos a ChatGPT qué se debe de hacer y complementó la información de Romualdo, agregando que es importante incluir:

​​

  1. En la sección de métodos o descripción del trabajo, es importante decir que se implementó IA, incluyendo el tipo de algoritmo o modelo utilizado, los parámetros y la configuración de la IA.
  2. Si se utilizó un software o plataforma específica de IA para el trabajo, es importante mencionar el nombre y la versión del software en la sección de métodos o en los agradecimientos. Por ejemplo, si se utilizó Midjourney para crear una imagen, mencionarlo.
  3. Si se utilizó un conjunto de datos específico en el trabajo, es importante mencionar el nombre y la fuente del conjunto de datos en la sección de métodos o en los agradecimientos.
Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad