Así como antes recurrían a la tabla de la ouija o a médiums para comunicarse con los muertos, en la actualidad, el boom de la inteligencia artificial provocó el nacimiento de una categoría laica llamada deadbots. Pero, ¿cuáles son los peligros de este ritual informático que juguetea con los límites de la existencia?
La industria post mortem (DAI) se las ingenió para sacar partido de la IA Generativa (IAG) y con un bajo nivel de escrúpulos se lanzó a constituir réplicas intangibles de personas fallecidas. El objetivo final es trascender la fase biológica del cuerpo.
“Estos proveedores administran servicios y productos que pueden resultar atractivos para quienes contemplan su eventual fallecimiento, como el envío de correos electrónicos póstumos o, para los dolientes que desean contar con una representación deepfake de algún ser querido”, explica el argentino Mauricio Figueroa, candidato a doctor en regulación tecnológica por la Universidad de Newcastle, en el Reino Unido.
Tanto si se trata de una iniciativa particular como de una gestión comercial, la misión preliminar de cualquier deadbot consiste en rastrear las huellas digitales del fallecido, para que su clon, pueda asumir esta nueva identidad sintética.
La conciencia cibernética
Los muertos resucitan en la pantalla del celular.“La comercialización de los robots fantasma (ghostbots) representa un nuevo proceso de mercantilización de los vínculos íntimos y una remodelación de nuestra relación con los difuntos”, indica Figueroa.
La conciencia de estos gemelos virtuales está formada por los datos y patrones de lenguaje que flotan en las redes sociales. Posteriormente, mediante un algoritmo que simula sus rasgos de personalidad, se lo devuelve a la vida.
Al final del proceso, el espectro cibernético termina empaquetado en un avatar 3D realista que, con una mirada piadosa, tiene la capacidad de rememorar anécdotas y conversar por videochat.
“En la actualidad, salvaguardar los registros digitales adquirió una profunda relevancia para quienes afrontan la pérdida. Para los deudos, la posible pérdida de este material o la amenaza de la obsolescencia digital puede provocar lo que Debra Basset denomina una segunda pérdida. Lo que subraya el hecho de que no sólo la pérdida física es importante, sino también la conexión emocional mantenida a través de los restos digitales de los seres queridos”, añade Figueroa.
Los deadbot puede salirse de control.Y aunque algunos se pregunten a quién puede interesarle la necromancia, 2.0 un estudio empírico realizado en Israel -con una muestra de 1401 participantes- reveló que, los rasgos de personalidad narcisistas, en combinación con el miedo a la muerte y el deseo de la inmortalidad simbólica, podrían impulsar a muchos individuos a tener un avatar de sí mismos o uno que emula a un amigo cercano o miembro de la familia.
Y si bien mediante este artificio sus allegados logran establecer el contacto deseado, esta actividad plantea importantes dilemas morales. Muchas de las empresas que administran estos robots, operan sin ningún control ni regulación.
Además, estos chatbot generativos no se caracterizan por respetar las secuencias fijadas en su código, ya que tiene la capacidad de improvisar parlamentos que no fueron incluidas en su guion. Y a medida que se intensifica el entrenamiento, la IA podría evolucionar más allá de toda lógica.
Así, aparece la hipotética posibilidad de convertirse en una entidad que no represente la naturaleza o las opiniones del occiso. Y llegar al extremo de difundir información errónea o crear una imagen apócrifa que empañe su memoria.
«La discusión no debe enfocarse sólo en torno a privacidad y protección de datos, sino también en las ramas del derecho que protegen la imagen de un individuo de manera más holística, como el right of publicity en el sistema norteamericano, pero este se ha entendido mayoritariamente para personas fallecidas», recuerda Figueroa.
La contracara de los muertos
Los avatares súper realistas hechos con inteligencia artificial.Una investigación liderada por expertos del Centro Leverhulme para el Futuro de la Inteligencia, de la Universidad de Cambridge, sugiere que estas aplicaciones tendrían efectos perjudiciales en la salud mental, especialmente entre los menores.
Tomasz Hollanek y Katarzyna Nowaczyk-Basińska, identificando las flaquezas que rodean al comercio de la resurrección digital. “Nos basamos en los escenarios para describir varios problemas que plantean estos servicios de recreación y elaborar recomendaciones sobre el desarrollo ético de los sistemas de IA en este ámbito específico”, declaran.
Así, argumentan que, desde el aspecto técnico, logran recrear «el acento y dialecto de una persona, así como su sintaxis característica y sus constantes errores tipográficos al enviar mensajes de texto».
Sin embargo, también acreditan que, cuando la suscripción está por caducar, aprovechan el chatbot para formular recordatorios de la inminente renovación. Lo que causó un gran impacto emocional.
Según los investigadores, aquellos que se sientan reconfortados en una primera instancia, podrían aburrirse con la repetición o lo que es peor, recordarles que el ser querido ya no está y al mismo tiempo, impedirles dar vuelta la página.
“Se trata de una tendencia cuya magnitud queda legitimada bajo el concepto industria digital de la vida después de la muerte (DAI), que subraya la creciente importancia de la inmortalidad como segmento de mercado”, indican.
Algunos antecedentes
El 11 de febrero de 2013, la serie Black Mirror estrenó el episodio Be Right Back, en el que una joven logra comunicarse con su novio desaparecido a través de una IA capaz de reproducir sus reacciones.En 2018, en Japón, el Digital Shaman Project, ofrecía a los parientes cercanos la posibilidad de utilizar un robot humanoide equipado con una máscara impresa en 3D que representaba el rostro del fallecido.En 2018, el periodista estadounidense James Vlahos logró integrar una IA en la aplicación Facebook Messenger para comunicarse con el avatar digital de su padre recientemente muertos.El 1 de diciembre de 2020, Microsoft presentó una patente que combina un deadbot y un agente conversacional transformador. Esta última tecnología permite a la IA basarse en todos los datos de los medios sociales del difunto y evolucionar a medida que va conversando.En 2021, el desarrollador de videojuegos Jason Rohrer, gestaba el Project December con el fin de simular la personalidad de Jessica, su pareja que había muerto ocho años antes. La reconstrucción la hizo a partir de mensajes y textos que ella había escrito en redes sociales.El proyecto se construyó a partir de una API de GPT-3, aunque esto generó una disputa entre Rohrer y OpenAI, dado que las normas de uso de la empresa prohíben explícitamente que GPT-3 se utilice con fines sexuales, funerarios, de autolesión o de acoso.En 2021, el sitio de genealogía MyHeritage introdujo Deep Nostalgia, una función que creaba vídeos animados de los antepasados de los usuarios a partir de fotos fijas. Después de que la función se hiciera viral, la empresa admitió que algunos usuarios «la encontraban espeluznante».SL