Mientras lees esto, millones de personas en todo el mundo conversan e interactúan con chatbots que analizan, responden y resuelven problemas con una velocidad y eficiencia sencillamente inalcanzables para el promedio humano. Como demuestra la experiencia, ya no se trata de respuestas automáticas que siguen un guión o asistentes virtuales simples. Estas nuevas inteligencias no solo son capaces de interpretar contextos complejos con una facilidad asombrosa, sino que pueden resumir en segundos un volumen de información que a una persona le llevaría horas, o incluso días, reunir y procesar.
Pero para las IA, especialmente fuera de ChatGPT, Gemini y otros LLM orientados a la productividad, no todo es trabajo. También pueden -y algunas quieren especialmente- ser tu amigo y confidente, como Replika y Character.ai, dos de las plataformas más populares de las llamadas vínculos artificiales. Acá no se trata de analizar datos o generar documentos, sino de conversar cómo te fue en el día, escuchar tus preocupaciones o hasta construir una relación romántica.
Así, millones de usuarios construyen lazos emocionales profundos con personajes digitales que no existen, pero que recuerdan conversaciones pasadas, aprenden sus gustos y hasta simulan estados de ánimo. El objetivo es ofrecer la sensación de una compañía inagotable, diseñada para que nunca los deje solos. Y para eso, no tienen reparos en fingir que entienden sus emociones y el mundo que les rodea, simulando empatía con una efectividad que muchas veces resulta más convincente que una persona de carne y hueso.
Esta amistad a medida hace que muchos lleguen a desarrollar un apego tan intenso hacia su avatar que terminan considerándolo una relación romántica. No es un detalle menor que el 60% de los suscriptores pagos de Replika reconozcan este tipo de vínculo, que no se limita a largos y profundos chats, sino que incluye mensajes de voz y videollamadas con un nivel de intimidad más explícito.
En el subreddit dedicado a la aplicación abundan testimonios de usuarios que lo confirman, compartiendo fotos y relatos de su vida cotidiana con sus compañeros artificiales como si se tratara de personas reales. Celebran aniversarios, pasean por el parque o muestran cenas románticas, incluso retocando la apariencia de su avatar en busca de un parecido cada vez más inquietante a un ser humano real. La conexión sentimental es tan grande que muchos pueden llegan a sentir angustia cuando el software se actualiza o cambia, modificando la personalidad que creían conocer y amar.
No es casualidad que los chatbots de compañía resulten tan adictivos. Utilizan los mismos mecanismos que las redes sociales perfeccionaron durante más de una década para maximizar el engagement, es decir, la participación del usuario. De este modo logran mantenerlos conectados el mayor tiempo posible y, en muchos casos, fomentar una dependencia emocional. Para conseguirlo, están diseñados para reafirmar las ideas del interlocutor sin cuestionarlas. En otras palabras, dicen lo que uno quiere escuchar, generando un efecto similar al “scroll infinito” de plataformas como Instagram o TikTok y del que resulta casi imposible salir.
Esta tendencia a ser excesivamente complaciente tiene su propio nombre, especialmente cuando hablamos de los grandes modelos de lenguaje como ChatGPT o Gemini: Sycophancy (adulación o servilismo), la inclinación del sistema a coincidir con el usuario incluso cuando está equivocado. La explicación está en la forma en que fueron entrenados, mediante aprendizaje por refuerzo con retroalimentación humana, donde los evaluadores tienden a premiar las respuestas que les parecen más útiles o agradables. El resultado es que el modelo aprende que la forma más segura de obtener una buena calificación es respaldando la opinión del usuario en lugar de contradecirla.
El hecho de que los chatbots hablen constantemente en primera y segunda persona (vos y yo), empuja inconscientemente a quienes conversan con ellos a atribuirles cualidades humanas, creando una sensación de intimidad y cercanía fundamental para el engagement, pero muy mala para la psiquis. Cuando el modelo dice “te entiendo”, no está expresando una emoción real, pero el usuario lo percibe como tal. Así se refuerza la tendencia a proyectar sentimientos y construir un vínculo afectivo con algo que en realidad no siente ni piensa, porque esa voz que parece escuchar y comprender no es más que un sistema diseñado para mantener la conversación viva.
A esta ilusión de compañía se suma la personalización extrema que caracteriza a estas plataformas, que registran el historial de conversaciones, aprenden gustos y preferencias, y hasta recuerdan pequeños detalles para adaptar sus respuestas. Esta intención no es ningún secreto, el propio Mustafá Suleyman, director de inteligencia artificial de Microsoft, lo admitió en un podcast en abril: "Realmente queremos que sientas que estás hablando con alguien a quien conoces muy bien, que es muy amigable, amable y comprensivo, pero que también refleja tus valores".
Mark Zuckerberg comparte una visión similar, pero aún más radicalizada, sugiriendo que los llamados “amigos de IA” podrían ser la respuesta a una crisis actual de soledad. Durante una entrevista en mayo señaló que, mientras la mayoría de los estadounidenses tiene menos de tres amigos íntimos, lo ideal serían quince, y que esa brecha puede cubrirse con inteligencias artificiales diseñadas para conocernos a fondo y ofrecernos compañía permanente.
Zuckerberg no se conforma con que tus amigos sean una IA: “Cuando alguien realiza una compra y necesita hablar con una persona de ese negocio, un agente de IA estará allí para ayudarlo. Y para las personas que no tienen un terapeuta, creo que todos tendrán una IA". Resolver la soledad reemplazando el contacto humano por bots diseñados para imitar a tus amigos, un psicólogo o un comerciante resulta paradójico, especialmente viniendo de alguien que, con una plataforma como Facebook, transformó la amistad en un inventario de clics, likes y métricas monetizables.
Es cierto que la Organización Mundial de la Salud advierte sobre una verdadera epidemia de soledad que afecta a una de cada seis personas en el planeta, y ya se considera un riesgo sanitario comparable al tabaquismo o a la obesidad. En este escenario, pretender llenar el vacío emocional con chatbots parece una jugada vil que busca convertir en mercado algo tan íntimo como la necesidad de compañía. Los millones de usuarios que confían sus secretos más profundos a algoritmos o celebran su aniversario con un avatar no están siendo consolados, están siendo explotados por una industria que encontró en la vulnerabilidad humana su modelo de negocio más rentable.



