¿Por qué los científicos debaten la esperanza de vida de los robots?

La inteligencia artificial y los robots inteligentes están en una vía para transformar las industrias y reemplazar el contacto humano. Pero, ¿qué pasa cuando fallan?
Los robots pueden ser programados para reaccionar positivamente o estar preocupados si ven un ceño fruncido.
Compañeros  Los robots pueden ser programados para reaccionar positivamente o estar preocupados si ven un ceño fruncido.  (Foto: iStock by Getty Images)
Por SELENA LARSON
(CNNMoney) -

La semana pasada, los legisladores europeos propusieron exigir interruptores de matanza para prevenir que los robots realicen algún daño.

La propuesta también incluyó la creación de un estatus legal llamado “persona electrónica” para los robots inteligentes para ayudar a determinar la responsabilidad en caso de una conducta indebida por parte de los robots.

Es entendible por qué querríamos apagar a las armas inteligentes o maquinaria industrial. Donde se vuelve más complejo es cuando las personas generan un afecto por la tecnología.

Lee: Mientras disminuyen los empleos de manufactura en EU, aumenta el uso de robots.

Los robots inteligentes podrían funcionar mal o un auto sin conductor podría encerrar a su pasajero dentro. Hollywood ya ha presentado sus predicciones sobre las relaciones con robots en la película Her, pero ¿qué pasaría si desarrolláramos un apego emocional a una IA y este se tornara rebelde? (Hollywood exploró esto en Ex Machina).

Filósofos, ingenieros y científicos luchan con preguntas similares. Dado que los robots pueden, por diseño, vivir para siempre, ¿dónde se encuentran las éticas involucradas en el diseño de un interruptor de apagado?

"Los seres humanos han buscado la inmortalidad por mucho tiempo”, dijo Tenzin Priyadarshi, presidente y CEO del Dalai Lama Center for Ethics and Transformative Values del MIT. "Estamos más cerca que nunca de crear algo que sea inmortal. El reto es que simplemente no sabemos sobre la calidad de la inteligencia. No podemos garantizar si esta inteligencia…puede ser usada para la destrucción o no”.

Priyadarshi dice que los interruptores deben existir por dos motivos principales: para evitar que la información caiga en las manos equivocadas, y para prevenir que la IA o los robots se vuelvan rebeldes. El chatbot Tay de Microsoft es un buen ejemplo de qué tan rápido se pueden multiplicar los prejuicios en una IA. Fue sencillo apagar el bot adolescente de Twitter después de que sus usuarios le enseñaran a usar lenguaje racista, pero eso no siempre sería el caso.

Lee: Europa se prepara para para una revolución de robots.

Dado que la IA no experimenta las emociones humanas, toma decisiones y ejecuta tareas exclusivamente por su racionalidad. Teóricamente, esto podría ser prejudicial.

Priyadarshi, quien es director de la Iniciativa de Ética del MIT Media Lab, es parte del grupo que da forma al Fondo de Ética y Gobierno de la Inteligencia Artificial, una asociación de importantes universidades e inversionistas de tecnología que buscan resolver algunas de las preguntas que rodean la diversidad, prejuicios y normatividad de la inteligencia artificial. La fundación Knight Foundation anunció una inversión de 27 millones de dólares el 10 de enero.

"Si existe un algoritmo que decide que los humanos son lo más peligroso en el planeta, lo que estamos probando ser cierto, la elección racional para una IA sería que deberíamos destruir a los seres humanos pues son perjudiciales para el planeta”, dijo Priyadarshi.

Elon Musk y Stephen Hawking han advertido sobre el potencial de la IA para dañar al planeta en el contexto de una carrera armamentista. Musk es fundador de OpenAI, una organización de investigación que desarrolla IA segura y ética.

Lee: Elon Musk avanza en la construcción de su imperio en energías limpias.

Los interruptores son “pan comido” según menciona Patrick Lin, profesor asociado y director del grupo de Ciencias Emergentes y Ética de la Universidad Estatal del Politécnico de California, pero no es claro quién los controlaría. Los gobiernos o los propietarios de los sistemas podrían tener potencialmente el poder de apagar a los robots.

En 2014, documentos revelaron que la Red Europea de Tecnología en Servicios de Tecnología de Cumplimiento de la ley había propuesto un dispositivo de apagado remoto para los autos, lo que implicaba que los policías podrían apagar el auto inteligente de una persona si intentaran darse a la fuga. Sin embargo, una fuente de la Unión Europea confirmó que no existe desarrollo en ese proyecto.

Decisiones como esta tienen ventajas. Un año después de que Apple instaló interruptores en sus smartphones, el hurto de iPhones disminuyó en 40% en San Francisco y 25% en Nueva York.

Existen muchas diferencias entre un smartphone y un robot inteligente, pero los especialistas en ética debaten los interruptores mientras que la sensibilidad permanece siendo un escenario hipotético.

"Si es posible tener IA consciente con derechos, también es posible que no podamos regresar el genio a la botella, si llegamos tarde a la instalación de un interruptor”, dijo Lin. “Por ejemplo, si tuviéramos, ¿podríamos apagar el internet? Probablemente no, o al menos, no sin un gran esfuerzo y tiempo, como cortando cables submarinos y derrumbando nodos”.

En el laboratorio de investigación ElementAI, los científicos de sistemas colaboran con expertos en ética de la Universidad de Montreal para crear herramientas de IA. El CEO Jean-François Gagné dijo que la firma cuenta con tres normas: ser transparentes, generar confianza y prevenir los prejuicios en los sistemas. Gagné dijo que las discusiones sobre el comportamiento ético son importantes ahora, pues funcionan como una base para los debates futuros sobre los derechos de los robots.

IBM también ha anunciado un conjunto de principios para el desarrollo de la IA que incluyen la transparencia sobre dónde y por qué se despliega la IA. La empresa está detrás de la conocida supercomputadora Watson usada en hospitales, bancos y universidades.

Lee: Estudiantes de la UNAM ganan premio de la NASA con su robot para explorar Marte.

Los robots pueden ser programados para reaccionar positivamente o sonreír, o estar preocupados si ven un ceño fruncido. Los estudios demuestran que estos comportamientos hacen que la gente se sienta más cómoda con los robots. Los robots humanoides como el Darwin-OP2, inclusive pueden ayudar a los niños con autismo a relacionarse con otros.

Los robots de compañía se están volviendo más populares, especialmente entre los adultos mayores. Los perros o gatos electrónicos pueden acompañar a la abuela del mismo modo en que lo haría un Retriever de verdad. Eventualmente, las instrucciones de cuidado para estos robots podrían escribirse en los testamentos del mismo modo en que se incluyen las mascotas. Si el robot no tiene quién lo cuida, ¿también muere con la persona?

"En el día a día tomamos decisiones dictadas por diferentes prejuicios, miedo, fobia, asuntos raciales o ansiedad”, dijo Priyadarshi. "La IA no tomará decisiones siguiendo estos motivos. La IA puede volverse una especie de espejo para que los humanos (se den cuenta) de que sea bastante plausible funcionar en este asunto donde podemos anular algunos de nuestros prejuicios”.

¿Quieres más noticias como esta?
Conoce las innovaciones y las tendencias tecnológicas más relevantes.

"Esto nos llevará a un tipo de relación en el que los seres humanos demuestren un sentido de cuidado por los robots”, dijo Priyadarshi. "La cuestión es cómo empezamos a ver a los robots a largo plazo. ¿Los veremos como reusables?”.

Recomendamos: Las piezas de LEGO ahora dan vida a robots.

Ahora ve
La renegociación del TLCAN va a toda marcha por los tiempos políticos
No te pierdas
×