Pero, como mostró Chris Noessel, diseñador en IBM, en un proyecto en el que analiza diversos programas de televisión y películas de ciencia ficción, existe una brecha importante en la imaginación popular: si bien hay muchas historias sobre sistemas de inteligencia artificial poderosos y peligrosos que causan desastres, no hay muchas historias sobre las narrativas “no contadas de la IA”, como responsabilidad y alfabetización tecnológica.
Y esto tiene algo de sentido. Como especie, nos gusta aferrarnos a estas historias de fantasía porque hablan de nuestras angustias más profundas. Sin embargo, estos clichés caricaturescos terminan distrayéndonos de las preguntas que deberíamos hacernos sobre el futuro que queremos y aquel que no queremos.
Por ejemplo, las historias sobre robots que se rebelan no son del todo útiles para pensar el sistema de IA que está detrás del nuevo servicio de Google, Duplex , diseñado para realizar tareas sencillas como llamar a un restaurante y hacer una reserva a nombre del usuario. Está lejos de ser un sistema consciente, pero la voz y las respuestas que puede dar han sido publicitadas como lo suficientemente humanas como para “engañar” a la persona que está del otro lado de la línea. En términos éticos, ¿el robot debería identificarse como una IA al hacer una llamada de parte de una persona real?