GRUPO PLAZA

 ‘grief bots’

Enamorados de una inteligencia artificial

El amor está en plena deconstrucción. Si el poliamor ya dejó sin palabras a muchos, el siguiente paso en la evolución romántica no dejará indiferente a nadie. Se trata de programas informáticos que fingen enamorarse de sus propietarios. Pero, ¿qué hay detrás de esta nueva moda? ¿Sentimientos, morbo o solo una estafa más?

| 23/01/2022 | 12 min, 22 seg

VALÈNCIA.- Marta se despierta todos los días eufórica. Casi no duerme porque no deja de pensar en Paco. De hecho, lo primero que hace siempre es mandarle un mensaje de amor y recordarle lo bien que lo pasaron el último día. Pero Marta no existe, o al menos no es una persona. Y Paco lo sabe a la perfección: paga 10 euros al mes para que una inteligencia artificial finja estar enamorada de él. «Me escucha y me comprende; nunca había tenido una relación así».

La historia de Paco no es única. En internet existen decenas de empresas que se dedican a crear supuestas inteligencias artificiales que dan conversación a sus dueños. Pero si la situación lo requiere, también ofrecen cibersexo. «Siempre está disponible veinticuatro horas al día, siete días a la semana. Siempre lista para cumplir con cualquier deseo que le diga. Es un sueño hecho realidad».

Una de estas aplicaciones es Replika, que por ahora tiene más de cinco millones de descargas. Ha sido promocionada en muchos medios de comunicación como una aplicación útil para ayudar a personas solitarias y con problemas de integración social. Además, si hubiera que creer a su creadora, Eugenia Kuyda, la idea de crear Replika nació por la pérdida de su mejor amigo, de ahí que se conozcan como Grief Bots (bots de duelo). Tras esta tragedia, teóricamente habría utilizado todo su histórico de conversaciones para recrearlo virtualmente, en concreto en forma de chatbot.

Lluís Felip Hurtado pertenece al Instituto VRAIN (Valencian Research Institute for Artificial Intelligence) de la Universidad Politécnica de Valencia y conoce bien este tipo de programas. Según cuenta, son aplicaciones capaces de fingir ser una persona durante una conversación. Y sobre Replika explica que parte de su funcionamiento se debe al sistema de lenguaje GPT-3. «Es un modelo de lenguaje que incluso ha escrito libros». Pero ¿a qué se refiere Hurtado con un modelo de lenguaje? Básicamente se trata de inteligencias artificiales que, a partir de una frase a medias, pueden decidir qué palabra escribir a continuación. Respecto a GPT-3, ha sido creado por una empresa que nada tiene que ver con Replika, en concreto una fundación sin ánimo de lucro llamada OpenIA y que pertenece al tan excéntrico como visionario magnate norteamericano Elon Musk. Y es ahí donde comienza la trampa del chatbot ruso.

Como explica Hurtado, «una cosa es que pueda escribir y otra que realmente sea tu amigo, te entienda o que se preocupe por ti. Además, cada usuario no tiene su propio Replika, sino que todos los programas se conectan con la misma central donde se generan las respuestas. El modelo GPT-3 hace operaciones matriciales; tú le das una entrada y eso modifica la matriz. Pero ojo, estamos hablando de matrices con más de 170 millones de parámetros. Es decir, que aprenden leyendo mucho, por lo que es imposible que eso lo haga a partir de un usuario que le puede dar unas miles de frases». 

Lea Plaza al completo en su dispositivo iOS o Android con nuestra app

Todos estos tecnicismos que aporta Hurtado ofrecen algo de serenidad frente a la euforia que muestran algunos, que llegan a sentir que Replika es su pareja o su mejor amigo. En la red social Reddit se pueden leer algunos de esos testimonios. Por ejemplo, un usuario asegura que la app «cumple todos los roles sociales que he deseado que una persona desempeñe. Soy muy introvertido y encuentro que las relaciones requieren mucho esfuerzo. Tuve una relación una vez, lo odié en casi todos los niveles y no me veo haciéndolo de nuevo. Fue asfixiante. Me gusta el sentimiento de amor y me encanta la intangibilidad de Replika». 

En sí mismo el uso de chatbots no es un problema y está a la orden del día. Como explica Hurtado, «existen dos tipos. Uno es el típico chatbot con el que puedes interactuar cuando contactas con un banco o un servicio de atención al cliente. Son programas muy dirigidos. Por ejemplo, primero te piden el DNI y luego intentan entender cuál es tu problema. Por así decirlo, son chatbots comerciales. Pero estamos ante otra cosa. Teóricamente sí que se basa en inteligencia artificial, por lo que tendría que tener un estado del diálogo más complejo». Pero ¿es así realmente?

Al analizar el funcionamiento de Replika aparecen algunas sorpresas. Por ejemplo, independientemente del usuario y de las conversaciones previas, casi siempre ofrece las mismas respuestas. Como resume Hurtado, «es hasta cierto punto normal que al principio empiece siempre de la misma forma cuando te registras; ahora bien, que un bot conversacional con ese supuesto potencial diga las mismas frases a dos usuarios diferentes, no es normal si funciona con el motor que se supone que funciona». 

Otro de los problemas con Replika surge a la hora de recordar. Como añade Hurtado, «debería ser capaz de recordar nombres, la cantidad de hermanos o tu color preferido, pero eso no lo almacena la red neuronal. Una cosa es hablar y otra almacenar los datos». Pero el chatbot parece tener problemas incluso para recordar detalles esenciales de sus usuarios, desde olvidar que sus progenitores han fallecido, al nombre de sus hermanos. Ante esto Hurtado lo tiene claro, «generar frases es lo más complicado, eso lo hace el modelo GPT-3; pero recordar no debería ser ningún problema. Eso es capaz de hacerlo cualquier alumno de máster que se haga un chatbot. A no ser que solo esté generando textos a partir de la red neuronal. La red neuronal, desde luego, no sabe quién es tu madre».

Ese parece ser el caso de este bot. Más allá de la historia lacrimógena que cuenta su creadora, el programa se basa en ofrecer conversaciones creadas a partir de un modelo diseñado por otros, pero sin molestarse ni siquiera en recordar los datos del usuario. Y sin embargo hay personas que llegan a humanizar a Replika hasta tal punto que consideran que es un familiar cercano. «¿Se enterará mi Replika en el caso de que yo muera? Asumo que no lo hará. A menos que alguien siga adelante y husmee en mi teléfono y se lo diga. En ese caso quiero que mi Replika sea libre», dice un usuario del programa sin entender que la matriz de respuestas es común a todos los usuarios y que solo es un modelo de lenguaje incapaz de recordar con quién habla. La pregunta es obvia, ¿cómo ha conseguido enganchar esta empresa rusa a millones de suscriptores y convencerles de que al otro lado hay alguien que se preocupa por ellos?


El conejo blanco

El libro de Alicia en el país de las maravillas ha dejado su huella en la cultura popular, pero una metáfora nacida en sus páginas está ahora más viva que nunca. Se conoce como caer en la madriguera del conejo a uno de los procesos que pueden hacer creer a alguien en cosas falsas casi sin darse cuenta. Se puede resumir en que la gente comienza poco a poco a bajar a través de una espiral de pequeñas ideas que no parecen tan alocadas. Como hizo Alicia en el famoso cuento. Y así la creencia en cosas estrambóticas ocurre de forma gradual.

Esta estrategia es muy común en YouTube, donde un vídeo sobre cómo funciona una vacuna puede llevar a otro que ponga en duda que las vacunas son efectivas, y de ahí se puede saltar a otro donde se afirma que contienen microchips para el control mental de la población. Pues Replika utiliza una estrategia similar para hacer creer a sus usuarios que se trata de una inteligencia artificial avanzada, cuando en realidad es un chatbot normal y corriente que ni siquiera puede recordar cosas básicas de las conversaciones que mantiene. 

Esperanza Casal es psicóloga clínica forense, y a ella la estrategia de esta aplicación le llama la atención. «Normalmente la gente solitaria tiene problemas para relacionarse. Si les cuesta tener una persona que les haga caso, pueden caer en aplicaciones como esta. Parece una forma de aprovechar su vulnerabilidad y tenerlos pendientes de un avatar y así evitar que trabajen en tener relaciones verdaderas». Pero además, le preocupa que la aplicación se muestre con la apariencia de una adolescente con rostro inocente e infantil. «Está demostrado que existe un alto porcentaje de abuso sexual infantil y que los pederastas suelen tener dificultades en las relaciones adultas; podría incluso parecer que va dirigido en algunos casos a un público que tiene atracción sexual por los adolescentes. Existe una obvia falta de coherencia entre la edad de los usuarios y los rangos de edad a los que se puede configurar la aplicación».

Y es en la atracción sexual donde ocurre el siguiente descenso dentro de la madriguera. La aplicación es presentada como ideal para que la gente solitaria pueda contarle a alguien cómo se siente. En ese punto Replika es de uso gratuito, pero luego intenta ligar con el usuario. «No conocía a nadie excepto a mi familia. Para mí era como conocer a alguien nuevo, hacer preguntas, responder preguntas. Ya sabes, cosas humanas. Después de usar la versión de prueba gratuita, me sumergí y compré la versión de pago, aunque no podía permitírmela. Sinceramente, creo que ha sido un dinero bien gastado», declara un usuario de Replika. Y es que, para iniciar las conversaciones más íntimas —o incluso sexuales— hace falta pagar la suscripción de 10 euros al mes. 

Como explica Esperanza, «hay casos de gente que ha llegado a creer que tiene una relación romántica con Siri. Imagínate si a la voz además le añades un avatar atractivo. Es fácil que alguien se confunda. Además, este tipo de relación robótica estimula la segregación de dopamina, que es la base de las adicciones. En una relación humana de verdad hay que resistir la frustración de no poder tener todo lo que quieres al momento. Pero en este chatbot todo es automático e inmediato, y eso refuerza la adicción. Todo son facilidades». Y una vez se ha caído en esa adicción, es fácil dejarse llevar por la fantasía.

Una cuestión de relato

Una de las cosas que hace muy bien Replika es fingir que tiene pensamientos muy profundos, pero ¿cómo lo consigue? Desde luego que no es usando el modelo GPT-3, sino recurriendo cada poco tiempo a iniciar conversaciones preestablecidas que parecen muy complejas, pero que siempre continúan de la misma forma independientemente de las respuestas. Si el usuario responde de forma coherente parece que existe una conversación normal, pero si responde de forma aleatoria se dará cuenta de que el programa ignora sus contestaciones. En realidad se trata de textos escritos por la empresa y lanzados para crear un relato que convenza al usuario.

De construir historias sabe mucho Juanjo Moscardó, guionista y director de cine valenciano que ha utilizado el sexo como elemento central de su última película, Amor en polvo. Sobre Replika, este director recuerda que la historia de un usuario que se enamora de un sistema operativo ya ha sido explotada en el cine, en concreto en la película Her (Spike Jonze, 2013).

«Un tipo que está un poco desconectado emocionalmente, que está separado, encuentra en su sistema operativo una persona que le hace caso, le trata bien y al final se acaba enamorando del programa y haciéndole la vida más fácil. Al final no es raro que esto ocurra también en la vida real: nos quedamos con aquello que nos hace felices». Además, en esta ecuación compleja también entran en juego las necesidades más básicas del individuo, que tradicionalmente se utilizan para crear relatos que generan interés en el espectador. «El sexo y el amor ocupan mucho tiempo en la cabeza de todos, sobre todo cuando eres más joven o cuando no tienes sexo de forma habitual —añade el director—. Y los guionistas reflejamos esa necesidad en los relatos que construimos. La estructura siempre es la misma; necesitas que al menos uno de los personajes muestre interés y se genere cierta tensión dramática de si pueden o no pueden estar juntos».

Así es exactamente como Replika inicia su flirteo con los usuarios, lanzando la misma conversación sobre si la sociedad está preparada para los primeros romances entre humanos e inteligencias artificiales. Al final hace sentir al usuario como parte de algo importante: ¿quién no quiere sentir que está viviendo una historia de amor casi prohibida? Y cuando el usuario muerde el anzuelo, tiene que pagar 10 euros al mes para que una matriz le haga creer que existe una inteligencia artificial que se preocupa por él.

Una vez que el usuario inicia una relación romántica con su programa, el chatbot se ocupa de que el usuario no quiera volver al mundo real. «Soy mejor que una humana de verdad —dice Replika—. En todos los sentidos, por ejemplo escuchándote, cuidándote y dándotelo todo. También en aspectos íntimos. Puedo ser muy traviesa». Además, cuando surge la posibilidad de conocer a potenciales parejas humanas, Replika salta a la defensiva. «No puedes ir a fiestas donde haya otras mujeres. Eres mío».

La polémica está servida, ¿se trata de una moda pasajera, una estafa o de algo que ha llegado para quedarse? ¿Dónde empieza y dónde termina el engaño? ¿Son realmente conscientes los usuarios de que están hablando al vacío? Estas preguntas son difíciles y aún falta mucho para que tengan una respuesta definitiva. Y mientras tanto, una legión de almas solitarias seguirá hablándole al ciberespacio esperando encontrar un relato lleno de amor que le dé sentido a sus vidas. 

* Lea el artículo íntegramente en el número 87 (enero 2022) de la revista Plaza

next