En algunos casos, estos avatares incluso podrían trabajar o generar ingresos

¿Y si tu abuelo pudiera enseñarte a reparar el grifo… años después de haber muerto? Con los avances actuales en inteligencia artificial, estas preguntas ya no son ciencia ficción, sino parte de un debate ético, tecnológico y emocional cada vez más urgente.

Un estudio reciente liderado por Meredith Ringel Morris (Google DeepMind) y Jed Brubaker (Universidad de Colorado Boulder) analiza el fenómeno de los llamados fantasmas generativos: representaciones creadas con IA de personas fallecidas, que pueden hablar, recordar, aconsejar… y, en algunos casos, causar más problemas que consuelo. Lejos de ser una curiosidad, estas tecnologías ya existen. Plataformas como Re;memory o HereAfter AI entrevistan a personas vivas durante horas para construir un avatar interactivo que podrá seguir “viviendo” tras su muerte, como un chatbot personalizado que comparte recuerdos, muestra fotos y responde preguntas con su misma voz.

En países asiáticos como China o Corea del Sur, donde la relación con los ancestros sigue muy viva en el plano cultural, estos experimentos han tenido mayor recepción. Pero en Occidente, donde el duelo tiende a vivirse en silencio o con distancia emocional, la idea de seguir conversando con un ser querido desde el más allá genera tanto fascinación como incomodidad.

Para los investigadores, las posibilidades son amplias: un profesor podría seguir enseñando desde la tumba, un músico seguir componiendo, un padre fallecido podría dejar instrucciones precisas para el futuro académico de su hijo. Incluso podrían continuar trabajando —de forma automatizada— y generando ingresos para su familia. De ahí que algunos ya hablen de herencias productivas gestionadas por bots entrenados con la personalidad y conocimientos del difunto.

Pero con todo esto viene un campo minado de dilemas. ¿Qué pasa si ese avatar empieza a distorsionar la memoria de la persona fallecida? ¿Y si revela aspectos íntimos que nadie esperaba? Un “fantasma” podría replicar expresiones racistas, malinterpretar frases, inventar recuerdos… o incluso, si alguien así lo decide, ser programado para acosar, manipular o cometer delitos. Los investigadores advierten que también podrían usarse para chantajes post mortem o para continuar disputas familiares desde el más allá.

“Reencarnación” es la palabra que usan los autores del estudio, aunque aclaran que se trata de una metáfora. La IA no trae de vuelta a nadie, pero sí puede imitar con notable precisión la voz, los gestos, el pensamiento y los patrones de comportamiento de una persona. Y si bien esto puede ser reconfortante para algunos, también puede volverse una carga emocional difícil de manejar.

A medida que esta tecnología se expande, lo que está en juego no es solo nuestra relación con la muerte, sino con la memoria, la verdad, la intimidad y el legado. ¿Quién controla lo que dice una persona después de morir? ¿Qué derechos tiene la familia sobre un avatar? ¿Qué pasa cuando el duelo se convierte en dependencia digital?

Lo que está claro es que, en este nuevo capítulo de la vida después de la vida, ni la muerte es el final… ni los fantasmas se parecen a los de antes.

Share this post :

Facebook
Twitter
LinkedIn
Pinterest