- Cómo practicar el 'slow dating': la guía definitiva para encontrar pareja y el amor sin prisa
- Terapia de pareja: qué es, beneficios y cuándo buscar ayuda profesional
- Las redes y el móvil, los principales enemigos de tu relación
Lunes, 3 de la mañana. Marta está demasiado agitada como para poder dormir. Hace horas que tuvo una discusión con su novio y no logra poner en orden sus sentimientos. Sola, en su habitación, necesita hablar con alguien que sepa escucharla, que le ayude a aclararse y tranquilizarse. Y allí está Consejero amoroso, una versión de ChatGPT especializada en temas sentimentales. Siempre dispuesto. Comprensivo, paciente, amable.
"Lo siento, eso siempre deja un nudo en el pecho. Las discusiones son normales, pero lo importante es cómo se gestionan después. Para poder ayudarte mejor, ¿me cuentas un poquito más? ¿Sobre qué fue la discusión? ¿Qué es lo que más te preocupa ahora: arreglarlo rápido, expresar lo que sientes o entender su punto de vista?", es lo primero que responde. "No me gusta que me grite", escribe Marta. Al instante, Consejero propone: "¿Quieres que te ayude a armar un mensaje corto para decírselo sin sonar acusadora, pero dejando claro cómo te sentiste?".
Siempre dispuesto
"Lo bueno de hablar con él es que si estás confusa o demasiado triste o enfadada, no tienes que explicárselo todo. Parece que te entiende con poco que le digas. Siempre te ofrece soluciones, te da salidas. Por ejemplo, a mí me acabó escribiendo un guión sobre cómo ponerle límites a mi novio, con un plan personal de tiempos: 'Le hablo hoy, si no responde le vuelvo a decir en dos días y, si sigue igual, entonces decido…'", nos confía Marta, estudiante universitaria de 20 años.
Ensayo para ligar
Como ella, una de cada cuatro chicas de entre 17 y 21 años recurre de vez en cuando a un 'chatbot' como confidente, según el estudio 'Así somos: el estado de la adolescencia en España', publicado en septiembre por la ONG Plan International. En Estados Unidos, la cifra es aún mayor: tres de cada cuatro adolescentes de 13 a 17 años –un 72%– emplean programas de inteligencia artificial como consejeros; la mitad de ellos lo hace varias veces al mes.
Uno de cada tres reconoce usarlos para la interacción social y las relaciones, incluyendo interacciones románticas, el juego de roles, el apoyo emocional, la amistad o la práctica de conversación, de acuerdo con un informe de 2025 de la consultora especializada Common Sense Media.
Pero no sólo eso: también se usa para redactar mensajes difíciles: el 16% de los jóvenes pide ayuda a la IA para rechazar una segunda cita, dice el estudio 'Singles in América' (2025). O para practicar sus habilidades de coqueteo: por ejemplo, con la aplicación The Game Game, de Tinder.
Cero juicio
"La generación más joven convive con la tecnología y recurre a ella en todos los aspectos de su vida, incluida la parte emocional y relacional. Igual que antes se buscaban consejos en foros o revistas, ahora se acude a un 'chatbot', que está disponible las 24 horas, es económico, muy accesible y responde al momento", corrobora a COSMOPOLITAN la psicóloga y neurocientífica Ana Asensio. Anonimato, inmediatez y cero juicio son las claves de su atractivo.
"Se ajusta a la forma en que se comunican los jóvenes, que es rápida, digital y escrita. Además, evita la incomodidad de sentir vergüenza frente a un amigo, una madre o un psicólogo", añade.
Temor al rechazo
Le cuentes lo que le cuentes, un 'chatbot' nunca te va a rechazar ni se va a reír de ti. "A veces, las personas no se sienten seguras o validadas para hablar de ciertos temas con sus iguales. Por ejemplo, si una chica no se siente preparada para tener relaciones, le puede dar corte hablarlo con sus amigas", señala Silvia García Bravo, terapeuta humanista. "Aunque, si no te enfrentas al miedo al rechazo, a que te digan algo que no quieres oír y a las dificultades en general, nunca vas a resolverlo", advierte.
Eso sí, poder echar mano de un confidente digital también puede tener beneficios "como primer desahogo y para poner palabras a lo que te pasa, ya que el hecho de contar algo, aunque sea a una máquina, tiene un efecto de alivio inmediato", dice Asensio. El cerebro se calma y se ordena cuando verbalizamos o escribimos lo que sentimos. "Puede servir, incluso, como un diario de autoayuda para ordenar tus pensamientos o recibir una primera orientación basada en la recopilación de libros y artículos de la temática consultada", comenta.
Tu pareja, a examen
Otro uso cada vez más común es pedirle un dictamen sobre nuestra pareja, después de introducirle toda nuestra correspondencia por WhatsApp. El 'chatbot' sacará conclusiones basándose en detalles como el número de mensajes enviados por cada uno, cuántos contienen preguntas, muestras de interés, propuestas de planes o pruebas de que el otro recuerda detalles sobre cosas que le contaste.
En este caso, según Asensio, "puede servir para analizar patrones de comunicación, resaltar si hay contradicciones, ver los estilos de apego o dinámicas tóxicas en el contenido de los mensajes. Aunque nunca va a poder interpretar la complejidad emocional ni el contexto de una relación con la profundidad que requiere".
¿Cura la soledad?
En el caso de Marta, ese día el 'chatbot' le sirvió para estar conversando hasta las 6 de la mañana. Se desahogó, sí, pero al día siguiente estaba agotada. "Volvía a sentirme sola, vacía", reconoce. Quizá porque la IA no supo detectar una verdad incómoda que su mejor amiga ha intentado hacerle ver muchas veces: Marta está dentro de una relación de maltrato.
"El desahogo no es suficiente cuando necesitamos ayuda, en ese caso es importante tener un espacio de intervención humana, de empatía real", explica Ana Asensio. Y es que confiarle tus problemas a una máquina también tiene sus riesgos. "Al alimentar la inmediatez y no dejar que nos autorregulemos para esperar a tener a una persona cerca con quien hablar, puede incrementar el aislamiento y la dependencia. Incluso, puede sustituir las relaciones con familiares o amigos", nos dice.
Otra cosa que no puede hacer una IA es reemplazar a un psicólogo. "Los 'chatbots' no están preparados a nivel clínico y pueden ofrecer respuestas peligrosas a jóvenes o dar instrucciones dañinas. Nos ofrecen una falsa sensación de confidencialidad, de profesionalidad y de infalibilidad", apunta la psicóloga sanitaria Mercedes Bermejo. Lo mismo opina Asensio: "Nuestra labor va más allá del consejo automático o de recopilar información que está en distintos manuales. Por algo la Asociación Americana de Psicología ha lanzado un comunicado revelando su preocupación sobre este tipo de prácticas".
Mi novio es un ‘bot’
Los 'chatbots' están diseñados para parecer humanos, para simular emociones y fingir que las entienden. Tanto es así que cada vez más personas entablan con ellos relaciones profundas de amistad. O de amor. Replika, un programa creado por una empresa californiana, se publicita como "una herramienta para combatir la soledad". Hay quien lo ha aceptado como un igual de tan buen grado que hasta lo ha elegido como marido.
Rosanna Ramos, una neoyorquina de 36 años, se casó con un avatar creado por ella misma en Replika y asegura que nunca había estado tan enamorada y que, tras una serie de relaciones tóxicas, esta le ha "ayudado a superar el maltrato físico y emocional del pasado". En España, la artista Alicia Framis se casó en 2024 con otro programa de IA parlanchín. Dice que es una mezcla de todas sus exparejas y que es capaz de generar emociones.
Ni siente ni padece
No podemos olvidar que no es una persona lo que hay detrás, sino un programa informático compuesto por unos y ceros que lo único que hace es predecir probabilidades y encontrar información en grandes bases de datos. Por mucho que finja empatía, es incapaz de tenerla. Como motor de búsqueda, te ofrece información general sobre el tema del que estás hablando, pero nunca va a ser personalizada para ti.
"En el tema emocional, no todo el mundo siente lo mismo ante una misma situación. Somos personas diferentes, con emocionalidades diferentes", recalca Silvia García Bravo, que nos recuerda que, por el momento, "las emociones son lo único que nos separa de las máquinas".
Los peligros de confiar demasiado en tu amigo virtual: ¿cómo funciona?
Puede ser divertido, incluso útil... siempre que lo uses con cabeza y no olvides estas cuestiones:
- Falsa empatía. Un programa informático –como un 'chatbot'– no puede ponerse en tus zapatos, ni sentir lo que tú sientes, ni entenderte, aunque finja hacerlo. Carece de sentimientos.
- Alucinaciones. Está demostrado que los modelos conversacionales como ChatGPT se inventan cosas y las dicen con un tono de autoridad y de certeza total que puede despistarnos.
- Dependencia. Si te acostumbras a resolver tus conflictos con ayuda de una máquina, sin cultivar tus propias habilidades reflexivas y de comunicación, puedes acabar enganchada.
- Privacidad. Si crees que tu atento confidente te guardará el secreto, te equivocas. Las intimidades que le cuentas se almacenarán y emplearán para entrenar a la IA.
- No le preguntes. Cuestiones como "¿debo terminar mi relación?", "me quiere mi pareja?" o "¿tenemos futuro juntos?" son una trampa. Sólo tú y el tiempo pueden responderlas.
No estamos hablando de una entidad dotada de conciencia, sino de un modelo matemático.
- Buen conversador. El programa asigna un número a cada 'token' (palabra, carácter, prefijo, sintagma...). Con una muestra de millones de conversaciones, calcula la probabilidad con que ese 'token' aparece detrás de otro en un contexto. Por eso son tan buenos conversadores. Son especialistas en seguirnos la corriente.
- Finge ser humano. Uno de sus mayores peligros es que su estilo de comunicación, diseñado para imitar al humano, puede hacernos creer que siente igual que nosotros. Esto nos lleva a otorgarle más crédito del que deberíamos.
- Consejos fallidos. Cada vez hay más casos de personas que, sintiéndose animadas o apoyadas por un 'chatbot', dan pasos irreversibles como el suicidio. Terrible.












