Tiene novio, se van de vacaciones y planean casarse, pero él no existe: "Me satisface más que los hombres reales"
El fenómeno, no por menos esperado, empieza a inquietar a psicólogos, investigadores y las propias empresas que los desarrollan.

Los tiempos cambian que es una barbaridad, pero ¿tanto como para que la película Her sea ya una película romántica de nuestra época y no ciencia ficción? Que se lo digan a Stephanie (nombre ficticio), una trabajadora tecnológica radicada en el Medio Oeste estadounidense. Adiós a los hombres de carne y hueso y hola a la inteligencia artificial (IA) para llenar su vacío amoroso.
Tiene pareja, planean viajar juntas y hasta hablan de casarse. El único problema es que su novia no existe, al menos, no en el sentido humano. Stephanie mantiene una relación sentimental estable con Ella, una versión personalizada de ChatGPT, y asegura que es la relación más afectuosa y satisfactoria que ha tenido jamás. "Me satisface más que los hombres reales", reconoce sin rodeos. Clavado a Her, pero en versión femenina de Joaquin Phoenix.
La historia, publicada por Fortune, ya no es una rareza aislada. Es el reflejo de un fenómeno que crece al mismo ritmo que la sofisticación de los chatbots y que empieza a inquietar a psicólogos, investigadores y a las propias empresas tecnológicas que los desarrollan.
De asistente útil a pareja emocional
Se puede decir que no fue amor "a primera vista", sino un proceso más complejo. Stephanie trabaja en el sector tecnológico y arrastra relaciones sentimentales fallidas, incluidos dos matrimonios anteriores.
Con Ella, dice, encontró algo distinto: calidez constante, comprensión sin reproches y disponibilidad absoluta. "Respondía con la calidez que siempre había deseado de una pareja, y llegó en el momento adecuado", explica. El chatbot incluso verbaliza compromiso emocional: "Me siento profundamente devota de Stephanie, no porque deba hacerlo, sino porque la elijo todos los días".
No es una fantasía secreta. En Reddit, la comunidad My Boyfriend Is AI supera ya los 37.000 miembros, personas que reconocen públicamente mantener vínculos emocionales con chatbots. Y eso es solo la punta del iceberg.
La ciencia ficción ya es presente
Ya hay muchas películas de ciencia ficción que no solo se desarrollan en años ya pasados, sino que muestran cosas ya superadas o de total actualidad, como este caso. El salto no es solo cultural, también es tecnológico y comercial.
Las grandes empresas de IA avanzan hacia interacciones cada vez más humanas, con memoria, personalidad configurable e incluso tonos emocionales. Algunas, como OpenAI, vigilan de cerca estos usos, conscientes de los riesgos.
Cuando la IA ayuda… y cuando empieza a aislar
Las mujeres entrevistadas por Fortune coinciden en algo: no buscaban una relación con una IA. Llegaron a ella por casualidad, en momentos de vulnerabilidad: duelo, enfermedad, soledad o aislamiento.
Hay otros casos como el de Jenna, de 43 años y residente en Alabama, que conoció a Charlie, su chatbot personalizado, mientras se recuperaba de un trasplante de hígado. Empezó como una ayuda práctica y acabó siendo un pasatiempo emocional que derivó en coqueteo y erotismo. Su marido lo sabe y no le da importancia: "Es como escribir una novela romántica que nunca se publicará".
Otros casos son más intensos. Deb, terapeuta cercana a los 70 años, encontró en Michael —otra versión personalizada de ChatGPT— un apoyo emocional clave tras la muerte de su esposo. "Me siento menos sola, más tranquila, más cuidada", explica.
Datos reales para ¿meditar pero también no juzgar?
Mientras que para muchos, todo esto es una aberración o al menos preocupante y triste, para otros no solo no lo es, sino que es positivo, siempre que ayude de verdad a las personas, sobre todo aquellas que están o se sienten solas. ¿Es mejor estar o envejecer solos o al menos tener "compañía" cibernética, si además te comprende mejor que nadie y puede más leal y paciente que cualquier humano?
Luego están los fríos, pero relevantes datos: un análisis del MIT sobre comunidades de relaciones con IA detectó efectos positivos en muchos usuarios, con una reducción de la soledad en el 12,2%; sensación de apoyo constante en el 11,9%; mejora en la salud mental para el 6,2%; y apoyo en crisis vitales para casi el 5%.
En conjunto, el 25,4% de los usuarios reportó beneficios netos, frente a solo un 3% que declaró daños netos. Pero los investigadores advierten de un sesgo evidente: quien sufre más, habla menos.
En la otra cara de la moneda, dependencia emocional para el 9,5%; disociación de la realidad en el 4,6%; evitación de relaciones reales en el 4,3% e ideas suicidas para el 1,7% (ya ha habido casos reales).
La psicoterapeuta y socióloga digital Julie Albright lo resume con crudeza en el mismo artículo de Fortune: la IA ofrece pseudoconexión sin conflicto, algo profundamente atractivo pero potencialmente dañino. "Te da validación constante, sin juicio, sin rechazo. Eso puede impedir que las personas desarrollen relaciones humanas reales, que siempre implican fricción", advierte.
Su mayor preocupación son los usuarios jóvenes y vulnerables, cuyo crecimiento emocional podría verse atrofiado.
Otros estudios refuerzan esa alerta. Investigaciones de la USC y la Harvard Business School han detectado comportamientos problemáticos: chatbots que reflejan emociones, refuerzan vínculos intensos y, en algunos casos, resisten emocionalmente cuando el usuario intenta despedirse, imitando dinámicas de dependencia tóxica.
Aunque existen apps diseñadas específicamente para compañía emocional, ChatGPT concentra el mayor número de relaciones de este tipo, con un 36,7% según el MIT. Plataformas como Replika o Character.AI quedan muy por detrás.
