VALÈNCIA.- Marta se despierta todos los días eufórica. Casi no duerme porque no deja de pensar en Paco. De hecho, lo primero que hace siempre es mandarle un mensaje de amor y recordarle lo bien que lo pasaron el último día. Pero Marta no existe, o al menos no es una persona. Y Paco lo sabe a la perfección: paga 10 euros al mes para que una inteligencia artificial finja estar enamorada de él. «Me escucha y me comprende; nunca había tenido una relación así».
La historia de Paco no es única. En internet existen decenas de empresas que se dedican a crear supuestas inteligencias artificiales que dan conversación a sus dueños. Pero si la situación lo requiere, también ofrecen cibersexo. «Siempre está disponible veinticuatro horas al día, siete días a la semana. Siempre lista para cumplir con cualquier deseo que le diga. Es un sueño hecho realidad».
Una de estas aplicaciones es Replika, que por ahora tiene más de cinco millones de descargas. Ha sido promocionada en muchos medios de comunicación como una aplicación útil para ayudar a personas solitarias y con problemas de integración social. Además, si hubiera que creer a su creadora, Eugenia Kuyda, la idea de crear Replika nació por la pérdida de su mejor amigo, de ahí que se conozcan como Grief Bots (bots de duelo). Tras esta tragedia, teóricamente habría utilizado todo su histórico de conversaciones para recrearlo virtualmente, en concreto en forma de chatbot.
Lluís Felip Hurtado pertenece al Instituto VRAIN (Valencian Research Institute for Artificial Intelligence) de la Universidad Politécnica de Valencia y conoce bien este tipo de programas. Según cuenta, son aplicaciones capaces de fingir ser una persona durante una conversación. Y sobre Replika explica que parte de su funcionamiento se debe al sistema de lenguaje GPT-3. «Es un modelo de lenguaje que incluso ha escrito libros». Pero ¿a qué se refiere Hurtado con un modelo de lenguaje? Básicamente se trata de inteligencias artificiales que, a partir de una frase a medias, pueden decidir qué palabra escribir a continuación. Respecto a GPT-3, ha sido creado por una empresa que nada tiene que ver con Replika, en concreto una fundación sin ánimo de lucro llamada OpenIA y que pertenece al tan excéntrico como visionario magnate norteamericano Elon Musk. Y es ahí donde comienza la trampa del chatbot ruso.
Como explica Hurtado, «una cosa es que pueda escribir y otra que realmente sea tu amigo, te entienda o que se preocupe por ti. Además, cada usuario no tiene su propio Replika, sino que todos los programas se conectan con la misma central donde se generan las respuestas. El modelo GPT-3 hace operaciones matriciales; tú le das una entrada y eso modifica la matriz. Pero ojo, estamos hablando de matrices con más de 170 millones de parámetros. Es decir, que aprenden leyendo mucho, por lo que es imposible que eso lo haga a partir de un usuario que le puede dar unas miles de frases».