SOBRE ESTA CHARLA
Esta charla cuestiona la posibilidad de una IA verdaderamente “empática”, como la promovida en los ámbitos de la salud y la educación. Aunque los LLMs puedan imitar un lenguaje que aparente estar relacionado con los cuidados, una empatía genuina implica reconocerse mutuamente, abrirse desde la propia experiencia a las necesidades del otro y asumir responsabilidad ante su vulnerabilidad. La IA no tiene estas capacidades, no puede involucrarse ni hacerse cargo. Además, como muestran diversos estudios, al no requerir ningún esfuerzo, la empatía simulada carece de profundidad y cuando los pacientes o estudiantes advierten que se trata de una simulación, la ilusión de empatía se derrumba. Simular empatía no equivale a ejercer empatía. Perseguir una IA “empática” resulta, por lo tanto, paradójico y hasta contraproducente, ya que naturaliza un significado devaluado de la palabra “empatía” al erosionarla y degradarla para ajustarla a algo que estos sistemas sí pueden ofrecer: una simulación.
Filósofo de la tecnología especializado en los impactos socio-éticos de la IA.
Elisava, Facultad de Diseño e Ingeniería, Universidad de Vic-UCC
Después de 15 años como diseñador de UX, en 2010 me hice académico. Enseño y escribo sobre la ética del diseño y la tecnología. Soy autor de un par de libros y veintitantos artículos científicos.
