25 de noviembre de 2024 3:51 PM

Conoce el software que patentaron que permitirá “dialogar” con personas fallecidas

El gigante tecnológico Microsoft obtuvo una patente para crear chatbots basados en personas fallecidas utilizando su información personal, como “imágenes, grabaciones de voz, publicaciones en redes sociales, mensajes electrónicos”, entre otros datos.

Sur Florida / infobae

El documento de la patente detalla que “la persona específica (a la que representa el chat bot) puede corresponder a una entidad pasada o presente (o una versión de la misma), como un amigo, un pariente, un conocido, una celebridad, un personaje de ficción, una figura histórica, una entidad al azar, etc”. Y añade que “la persona específica también puede corresponder a uno mismo (por ejemplo, el usuario que crea / entrena el chat bot)”, es decir que los usuarios vivos podrían preparar a su reemplazo digital en caso de su muerte.

E incluso Microsoft ha agregado la noción de modelos 2D o 3D de personas específicas, que se generan a través de imágenes o datos de video, para mejorar la simulación de un diálogo con alguien que ha fallecido.

Además de Microsoft, otras empresas de tecnología se han lanzado a la carrera de utilizar datos digitales para recrear a muertos.

Eugenia Kuyda, cofundadora de la empresa de tecnología Luka, usó 8.000 mensajes de texto entre ella y su amigo Roman Mazurenko, quien murió en un accidente de tránsito, para crear un chatbot que imitaba la forma de hablar de Mazurenko.

En octubre de 2020, el rapero Kanye West le obsequió a su esposa, Kim Kardashian, un holograma de su difunto padre, Robert Kardashian. El bot habló durante unos tres minutos, dirigiéndose directamente a su hija sobre su decisión de convertirse en abogada y continuar con su “legado”.

El fallido experimento de 2016

Diversos medios especializados se hicieron eco de este nuevo emprendimiento de Microsoft y recordaron que la empresa fundada por Bill Gates y Paul Allen tuvo un tropiezo importante en el área de los chatbots en 2016, cuando tuvo que silenciar a Tay, un bot para Twitter, porque en menos de 24 horas de entrar en acción pasó de ser divertido y amable a agredir a otros usuarios en esa plataforma y hacer apología nazi: aparentemente el contacto con los trolls de Twitter generó esa mutación en el sistema, que se nutría de la interacción con los usuarios.

Tras el contratiempo, Microsoft dijo entonces en una publicación en un blog que sólo volvería a activar Tay cuando sus ingenieros encontrasen una manera de evitar que los usuarios influyan en el robot mediante mensajes que socaven los principios y valores de la empresa.

Facebook
Twitter
LinkedIn
WhatsApp

Relacionados