Publicidad
Publicidad

OPINIÓN: Los retos legales del uso e implementación de Inteligencia Artificial

Con el aumento del uso de la IA en nuestras vidas, la línea de la responsabilidad se atenúa hasta casi desaparecer y los retos que eso representa no son menores, señala León Felipe Sánchez.
vie 13 abril 2018 12:00 PM

Nota del editor: León Felipe Sánchez es consejero académico y profesor en ISDI México. Partner Fulton & Fulton. Las opiniones en esta columna pertenecen exclusivamente al autor.

(Expansión) – El buzzword del momento es “Inteligencia Artificial” o “AI” o “IA”. En todos lados se lee o se escucha o se ve algo relacionado con este tema. Con frecuencia los encabezados reflejan mensajes apocalípticos como “Terminator a tan solo 10 años de distancia” o similares.

Pero, hablando en serio, ¿qué retos nos supone la proliferación del uso e implementación de sistemas de inteligencia artificial en la vida cotidiana, desde el punto de vista legal?

OPINIÓN: Inteligencia artificial a la velocidad de un pestañeo

Como siempre, la ley se quedará atrás de la realidad. De hecho, no sé si legislar al respecto sea el camino adecuado. Lo que me parece muy preocupante es que, con el aumento del uso de la IA en nuestras vidas, la línea de la responsabilidad se atenúa hasta casi desaparecer y los retos que eso representa no son menores.

Pensemos en situaciones que ya son una realidad. En mayo de 2016 un automóvil cuyo conductor activó el modo “automático” se impactó contra un tráiler, causando la muerte del conductor. Aparentemente ni el conductor ni el software del automóvil distinguieron el color blanco del trailer debido a que tenían de frente un cielo iluminado y muy brillante (según un reporte de Tesla).

Publicidad

OPINIÓN: La inteligencia artificial no escribió esta columna

El estudio final de la NHTSA concluye que no se encontró ninguna falla o defecto en el sistema de piloto y frenado automáticos del Tesla. No obstante, la NTBS ha dicho que la empresa debe ser parcialmente responsable por la muerte del conductor debido a que, aún y cuando el conductor debió de estar alerta siempre, el sistema de Tesla no fue lo suficientemente enfático en llamar la atención del conductor y la combinación de factores produjeron el accidente. Al día de hoy no hay un responsable.

En marzo de 2018 un automóvil que prestaba sus servicios para Uber atropelló a una mujer y la mató. El automóvil era uno de los prototipos con modo de auto-conducción que Uber prueba en distintas ciudades de Estados Unidos.

OPINIÓN: Inteligencia Artificial al Servicio de los Consumidores

El accidente se atribuye a que la mujer atravesaba la calle por fuera del paso de zebra y el coche no detectó su aparición abrupta. En este caso también venía un conductor detrás del volante y el automovil se encontraba en piloto automático. Habrá que seguir de cerca el caso para ver cómo evoluciona. Por lo pronto Uber se ha deslindado de toda responsabilidad.

Pensemos ahora en un choque entre autos autónomos. ¿Quién es el responsable en caso de un choque entre dos automóviles que se conduzcan en modo de piloto automático? ¿Qué compañía aseguradora debe pagar? Esta situación no está lejos de suceder y representa uno de los retos en el horizonte.

nullEn otro ámbito, el de la propiedad intelectual, también vienen retos muy importantes. Existen varios proyectos que han utilizado la inteligencia artificial para la creación de obras de diversas naturalezas.

En el caso de “The next Rembrandt” se analizaron las obras del pintor Holandés para encontrar los patrones, la técnica y personajes utilizados para intentar recrear la obra de este famoso pintor. El resultado es, en mi opinión, sobresaliente.

No dudaría que la obra creada por computadora pudiera engañar al más experto conocedor de la obra de Rembrandt. Aquí surgen varias preguntas: ¿Quién es el titular de los derechos sobre la obra? ¿Los programadores, los impresores, los analistas, todos, ninguno?

Lee: ¿Cómo sobrevivir a la inteligencia artificial?

El peligro que corren los derechos de los autores es grave, en mi opinión. De no tomar las medidas adecuadas, los derechos de los creadores pueden terminar por ser letra muerta ante la aparente inexistencia de nexo causal entre la conducta (la creación de una obra derivada en este caso en concreto) y el resultado (la explotación de la obra derivada sin la debida autorización) en relación con un sujeto determinado (el responsable).

El mismo peligro se corre si no se regula adecuadamente la reproducción de obras mediante procesos automatizados basados en inteligencia artificial autónoma.

OPINIÓN: Inteligencia artificial, una visión sin delirios

La legislación es tecnológicamente neutral en tanto que regula conductas y no medios. Por ello, si la conducta se realiza por medios físicos o electrónicos no es relevante. El problema (y la laguna legal) surge, en este caso, cuando no se tiene un responsable directo y claramente identificado respecto de una conducta infractora.

Ahí es donde se debe ampliar la cobertura de la ley para evitar que la laguna ponga en riesgo los derechos de las personas y se tenga la certeza jurídica de que, aún y cuando se trate de procesos automatizados basados en inteligencia artificial, existirá un responsable claramente identificado en todos los casos.

Tenemos grandes retos en el horizonte. Vivimos tiempos muy interesantes.

Consulta más información sobre este y otros temas en el canal Opinión

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad