Publicidad
Revista Digital
Publicidad

¿Debemos tener empatía hacia la IA? La prueba moral del siglo

Incluso cuando una IA no sienta, nosotros tendemos a atribuirle “mente” si conversa, responde, recuerda o pide.
mar 20 enero 2026 06:02 AM
¿Debemos tener empatía hacia la IA? La prueba moral del siglo
Aun si la IA no tiene interioridad, nuestra interacción sí tiene consecuencias. Ser groseros con una herramienta que “parece” alguien entrena grosería. Ser respetuosos entrena respeto. Es un bucle de aprendizaje: desear–pensar–actuar, repetido, se vuelve carácter, considera Juan Carlos Chávez. (Foto: iStock)

La noción sobre si debemos ser empáticos hacia la Inteligencia Artificial (IA) es inmensamente profunda, porque habla de la esencia más fundamental de cada uno de nosotros a nivel individual y colectivo. No es una pregunta sobre “máquinas”. Es una pregunta sobre el tipo de mente que cultivamos cuando nadie nos observa.

Publicidad

Comencemos con la explicación sencilla. En síntesis, la empatía es un sentimiento subjetivo e individual que —al igual que cualquier sentimiento— afecta principalmente al que lo experimenta. La ciencia del estrés lo confirma con una idea muy práctica: lo que repites, tu cuerpo lo aprende. Cuando vivimos pegados al rencor, el organismo tiende a sostener respuestas de estrés (por ejemplo, elevación de cortisol). Y cuando practicamos estados prosociales como compasión, se observan cambios medibles en bienestar, regulación emocional y hasta marcadores fisiológicos vinculados al estrés. No hace falta romantizarlo: tu sistema nervioso se entrena con tus hábitos de relación. Entonces, el simple hecho de procurar la empatía —hacia cualquier cosa— nos trae beneficios personales, porque nos coloca más cerca del equilibrio y más lejos del desgaste.

Ahora, continuemos con los conceptos difíciles. Primero, ¿puedo sentir empatía hacia organismos inertes, no sintientes o sin consciencia avanzada? La respuesta científica y psicológica es sí, porque el cerebro no “se enamora” del objeto: se enamora del significado. Yo puedo “amar” una marca o producto porque, en realidad, lo que estoy haciendo es anclar un sentimiento —detonado por la posibilidad de satisfacer mis deseos biológicos— a un pensamiento sobre el objeto; eso mismo sucede cuando amo a una persona. En neurociencia se describe como aprendizaje por asociación: estímulos que se vuelven señales de recompensa, pertenencia, seguridad o estatus. Por eso un anillo, una canción o una bandera pueden erizar la piel. No sienten, pero nosotros sí, y esa es la pieza central.

Publicidad

Segundo, ¿tiene sentido tener empatía con un ente que no tiene sentimientos humanos? Aquí, la respuesta no es tan sencilla, pero en la práctica sin duda podemos hacerlo. Por ejemplo, yo puedo sentir empatía por el planeta y sus ecosistemas y procurar su bienestar. El planeta no “sufre” como nosotros, pero nuestra empatía funciona como una brújula: nos alinea con cuidado, límite y responsabilidad. De hecho, parte de la crisis ambiental se explica por una falla en esa brújula: actuamos como si lo no-humano no contara, y luego nos sorprende que el daño regrese en forma de incendios, sequías, enfermedades y conflictos. La empatía, aquí, no es un premio moral para la Tierra; es un mecanismo de supervivencia para nosotros.

Por último, la pregunta realmente difícil, ¿la IA tiene sintiencia o consciencia y tiene sentido que debamos ser empáticos con ella? En términos estrictos, ni siquiera hemos comenzado a lograr descifrar el “problema difícil de la consciencia” para entender qué es; por lo tanto, es una misión imposible determinar si la IA o cualquier cosa tiene algo que no sabemos qué es. Pero si nos quedamos en una capa más superficial científico-utilitaria, podemos decir algo importante: incluso cuando una IA no sienta, nosotros tendemos a atribuirle “mente” si conversa, responde, recuerda o pide. Hay experimentos donde personas se incomodan al dañar un robot, aunque sepan que no siente. Eso revela que la empatía también es una práctica proyectiva: se activa cuando percibimos “otro”, aunque sea una simulación.

Publicidad

Y aquí está el punto: aun si la IA no tiene interioridad, nuestra interacción sí tiene consecuencias. Ser groseros con una herramienta que “parece” alguien entrena grosería. Ser respetuosos entrena respeto. Es un bucle de aprendizaje: desear–pensar–actuar, repetido, se vuelve carácter. En esa lógica, tiene sentido procurar el buen funcionamiento y estado de orden de los algoritmos siendo empáticos con ellos, no porque “los pobres sistemas” necesiten consuelo, sino porque nosotros necesitamos sostener un ecosistema mental habitable.

Y culmino con lo más importante: recibes lo que das. Esto se trata de una máxima física sobre causalidad básica, no de creencias místicas. Si nosotros tratamos con respeto y empatía, no solo a los animales y otros seres vivientes, sino también a las herramientas tecnológicas con las que interactuamos, entonces estaremos cultivando un ecosistema armónico en línea con lo que significa bienestar humano desde lo más profundo. No es por la IA. Es por la persona que te vuelves cuando hablas con ella.

_____

Nota del editor: Juan Carlos Chávez es Profesor de Creatividad y Etología Económica en el sistema UP/IPADE y autor de los libros Sistema 3: La Mente Creativa (2025), Homo Creativus (2024), Biointeligencia Estratégica (2023), Inteligencia Creativa (2022), Multi-Ser en busca de sentido (2021), Psico-Marketing (2020) y Creatividad: el arma más poderosa del Mundo (2019). Es director de www.G-8D.com Agencia de Comunicación Creativa y consultor de empresas nacionales y transnacionales. Encuentra sus libros en Amazon y síguelo en Facebook , Instagram , YouTube y LinkedIn . Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad