Publicidad

Síguenos en nuestras redes sociales:

Publicidad

¿Somos lo suficientemente inteligentes para manejar la inteligencia artificial?

Podríamos comenzar a tomar más en serio la idea de que las máquinas pueden volverse colaboradoras nuestras, pero no como fuerzas misteriosas u oráculos omnipotentes, dice Ed Finn.
mié 24 julio 2019 12:42 PM
realidad aumentada
Las historias de fantasía nos distraen de las preguntas que realmente debemos hacernos sobre la Inteligencia Artificial, mientras desarrollos como el de la realidad aumentada son ya una herramienta con potencial para serios usos.

(Expansión) - Para muchas áreas de la inteligencia artificial, hemos superado lo que se conoce como “valle inquietante”, que es cuando las máquinas realizan tareas humanas de forma apenas extraña pero muy desconcertante.

La era de las máquinas inteligentes dejó de ser una especulación futurista: los sistemas que pueden aprender y desempeñarse a un ritmo igual o mayor que la capacidad humana ya existen; y no está claro si nuestras sociedades están listas.

Así, las historias que contamos sobre inteligencias artificiales parecen haberse estancado en otra época. Probablemente todos conocemos esos argumentos de ciencia ficción sobre máquinas inteligentes amenazantes que nos han preocupado por décadas. Un ejemplo espeluznante es el de los robots asesinos que vienen a exterminarnos a todos (como en las películas Terminator).

Publicidad

Pero, como mostró Chris Noessel, diseñador en IBM, en un proyecto en el que analiza diversos programas de televisión y películas de ciencia ficción, existe una brecha importante en la imaginación popular: si bien hay muchas historias sobre sistemas de inteligencia artificial poderosos y peligrosos que causan desastres, no hay muchas historias sobre las narrativas “no contadas de la IA”, como responsabilidad y alfabetización tecnológica.

Y esto tiene algo de sentido. Como especie, nos gusta aferrarnos a estas historias de fantasía porque hablan de nuestras angustias más profundas. Sin embargo, estos clichés caricaturescos terminan distrayéndonos de las preguntas que deberíamos hacernos sobre el futuro que queremos y aquel que no queremos.

Por ejemplo, las historias sobre robots que se rebelan no son del todo útiles para pensar el sistema de IA que está detrás del nuevo servicio de Google, Duplex , diseñado para realizar tareas sencillas como llamar a un restaurante y hacer una reserva a nombre del usuario. Está lejos de ser un sistema consciente, pero la voz y las respuestas que puede dar han sido publicitadas como lo suficientemente humanas como para “engañar” a la persona que está del otro lado de la línea. En términos éticos, ¿el robot debería identificarse como una IA al hacer una llamada de parte de una persona real?

 
Las historias sobre robots humanoides al estilo de Terminator tampoco ayudan a reflexionar sobre la naturaleza que puede tener un software

Tomemos un ejemplo reciente: las fallas de diseño letales del Boeing 737 Max , resultado de la combinación de un software de control de vuelo defectuoso y ambiciones comerciales que parecen haber llevado a ese gigante de la industria aeroespacial a priorizar las ganancias sin importar la seguridad. Algunos consideran este tipo de defectos en interfaces de interacción máquina-humano como una advertencia sobre las “sorpresas autónomas” que pueden aparecer en otras tecnologías, sobre todo, en los vehículos autónomos y semiautónomos.

Además, ambos ejemplos abordan una cuestión que la ciencia ficción pop raramente toca: Estas tecnologías no son mágicas. Son sistemas muy complejos diseñados por humanos que, por ende, traen consigo fallas y defectos humanos.

Tomemos como ejemplo a los asistentes digitales, como Alexa o Siri. Para comprender estos sistemas, es mejor pensarlos como enormes conjuntos de micrófonos que recopilan millones de solicitudes y preguntas de usuarios con el fin de seguir mejorando los modelos lingüísticos sobre la forma de hablar de las personas y los modelos de conocimiento sobre nuestras áreas de interés. Pero esto supone un problema complejo, y la diversidad de nuestra especie hace que sea extremadamente difícil encontrar una solución tecnológica adecuada para todos los casos. Es tan difícil, de hecho, que Amazon ha contratado a miles de empleados para escuchar e interpretar manualmente las conversaciones que los usuarios mantienen con Alexa, con el fin de entrenar mejor los algoritmos de aprendizaje automático que publicita.

 

De esta forma, si queremos sobrevivir y prosperar en el siglo XXI, necesitamos mejores historias sobre los sistemas inteligentes que ya nos rodean. El límite entre automatización e inteligencia se vuelve cada vez más difuso: desde sistemas que filtran los correos basura y que nos recomiendan contenido en redes sociales hasta dispositivos que monitorean nuestra salud y que terminan organizando e informando muchos aspectos de nuestra vida .

Seguir utilizando el modelo de fantasía que ha dominado la ciencia ficción pop nos llevará a lugares oscuros: amos y esclavos, conjuros y encantamientos, acuerdos engañosos y fuerzas inexplicables. Pero ¿qué pasaría si dejamos la magia y el miedo y empezamos a imaginar cómo sería hacer las cosas bien?

Podríamos comenzar a tomar más en serio la idea de que las máquinas pueden convertirse en colaboradoras nuestras, no como fuerzas misteriosas u oráculos omnipotentes, sino como socios computarizados con fortalezas y debilidades

Consideremos el caso (real) de la histórica partida de ajedrez que Garry Kasparov perdió contra la supercomputadora Deep Blue, de IBM, en 1997. Después de lamentar el resultado, muchos jugadores de ajedrez comenzaron a apoyar la idea de que las computadoras podrían jugar como “centauros”, es decir, en equipos combinados de humanos y máquinas, que hasta ahora han superado a las supercomputadoras que juegan solas.

En manos adecuadas, algunos algoritmos y otros programas automatizados pueden liberarnos de las tareas más repetitivas —podríamos decir más robóticas— de nuestros trabajos. También pueden complementar nuestras habilidades y conocimientos para ayudarnos a trabajar mejor. Los humanos debemos seguir siendo parte de la historia, pero no como usuarios ignorantes de programas cerrados, sino como participantes activos en los procesos de cálculo y decisión que tienen lugar dentro de esos programas. Quizás no sea una historia de fantasía o una de distopía, pero sí podría ser una gran historia.

Nota del editor: Ed Finn es Director del Centro para la Ciencia y la Imaginación en Arizona State University (ASU).

Publicidad
Publicidad