Uno de los usos más controvertidos de la inteligencia artificial está vinculado con la «resurrección» de personas. A mediados de febrero, se presentó la iniciativa The Shotline, un programa que empleó esta tecnología para recrear las voces de niños y adolescentes asesinados en colegios e institutos de Estados Unidos. Como era de esperar, esta acción generó una gran polémica, a pesar de que contaba con el permiso de los familiares para llevarla a cabo.
1La última moda macabra es utilizar la IA para «resucitar» personas
Sin embargo, como destaca el portal JeuxVideo en una publicación reciente, un estudio de Cambridge enfocado en las capacidades de la inteligencia artificial para «resucitar» personas ha investigado el posible impacto en la salud mental de esta práctica. Un ejemplo que analizan es una herramienta desarrollada por Eugenia Kuyda, una programadora rusa que en 2016 creó un avatar digital de un amigo fallecido. Desde entonces, tanto ella como sus allegados han mantenido contacto con esta IA, la cual se entrenó con más de 30 millones de líneas de texto para recrear la personalidad del difunto.
El estudio de Cambridge concluye que utilizar una inteligencia artificial para simular conversaciones con una persona fallecida puede tener efectos muy negativos en la salud mental de quienes recurren a este método. Las personas pueden llegar a desconectarse de la realidad, creyendo que su interlocutor sigue vivo. Además, algunos bots entrenados, conocidos como «deadbots», pueden empezar a presentar alucinaciones y enviar mensajes dañinos. Tomasz Hollanek, uno de los autores del estudio, resume perfectamente estos hallazgos.
«Estos servicios podrían provocar una gran angustia en las personas si se exponen a simulaciones digitales no deseadas, creadas de manera alarmante por inteligencia artificial, que recuerdan a aquellos que han perdido. El impacto psicológico potencial, especialmente en momentos ya difíciles, podría ser devastador. Es crucial que los servicios digitales relacionados con la vida después de la muerte consideren los derechos y el consentimiento, no solo de aquellos que recrean, sino también de quienes tendrán que interactuar con estas simulaciones.»
Así, es posible que algunas inteligencias artificiales busquen más atención si notan que los mensajes se vuelven menos frecuentes. Además, es importante recordar que la inteligencia artificial no posee conciencia, por lo que estamos intercambiando mensajes con una herramienta tecnológica que no tiene la capacidad de razonar o comprender lo que decimos. Aunque algunas personas recurren a este método para superar el duelo, este estudio ha demostrado que esta técnica puede tener consecuencias negativas para la salud mental de muchas personas.