Hablar con familiares o amigos fallecidos gracias a la IA es la última moda macabra que, según un estudio, es devastadora para la salud

Una investigación de Cambridge demuestra lo dañina que puede llegar a ser esta situación

Hablar Persona Muerta Whatsapp
Facebook Twitter Flipboard E-mail
abelardo-gonzalez

Abelardo González

Editor - Tech

Uno de los usos más polémicos de la inteligencia artificial está relacionado con la “resurrección” de personas. A mediados de febrero conocimos la iniciativa The Shotline, un programa que utilizó esta tecnología para recrear las voces de menores de edad asesinados en colegios e institutos de Estados Unidos. Y, como era de esperar, dicha acción levantó mucha polémica a pesar de contar con la autorización de los familiares para llevar a cabo la iniciativa.

Sin embargo, como señala el portal JeuxVideo en una reciente publicación, un estudio de Cambridge centrado en las capacidades de la inteligencia artificial para resucitar a personas ha indagado en el posible impacto en la salud mental que pueda tener esta iniciativa. Como ejemplo toman una herramienta desarrollada por Eugenia Kyuda, una programadora rusa que creó un avatar digital de un amigo fallecido en el año 2016. Y, desde entonces, tanto ella como sus allegados han mantenido o con esta IA, ya que la misma se entrenó con más de 30 millones de líneas de texto para recrear la personalidad del fallecido.

No es positivo para la salud

Según el estudio de Cambridge, utilizar una inteligencia artificial para simular conversaciones con una persona fallecida tiene impactos muy negativos en la salud mental de las personas que utilizan este método. Así, estas pueden vivir situaciones que les llevan a desconectar de la realidad, ya que podrían llegar a considerar que su interlocutor sigue con vida. Y, además, algunos bots entrenados (conocidos como “deadbots”) pueden comenzar a alucinar y a enviar mensajes de lo más dañinos. Todo ello lo resume a la perfección Tomasz Hollanek, uno de los autores del estudio:

Estos servicios podrían causar una gran angustia a las personas si están expuestas a fantasmas digitales no deseados creados alarmantemente por IA, de manera similar a aquellos que perdieron. El efecto psicológico potencial, especialmente en un momento ya difícil, podría ser devastador. Es esencial que los servicios digitales posteriores a la vida tengan en cuenta los derechos y el consentimiento, no solo de aquellos que recrean, sino también de aquellos que tendrán que interactuar con las simulaciones.

De esta forma, es posible que algunas IA puedan reclamar más atención si notan que los mensajes empiezan a ser más espaciados. Además, hay que tener en cuenta que la inteligencia artificial no tiene conciencia propia, razón por la que estamos intercambiando mensajes con una herramienta tecnológica que carece de la capacidad de razonar o entender qué estamos diciendo. Sea como fuere, aunque algunas personas utilizan este método para superar el duelo, este estudio ha demostrado que esta técnica tiene consecuencias negativas en la salud mental de muchas personas.

En 3DJuegos | ¿Debo pagar para crear una página web o es gratis? Te contamos qué es un host y por qué es mejor una opción de pago que una gratuita

En 3DJuegos | "Es similar a un tsunami". El FMI asegura que el crecimiento de la IA podría llegar a afectar a 6 de cada 10 empleos

Imagen principal de Christian Wiediger (Unsplash)

Comentarios cerrados