Los psiquiatras y psicólogos coinciden: cuanto más tiempo usas un chatbot de IA para gestionar la ansiedad, más dependencia emocional, aislamiento social y soledad genera
Usarlos sin control puede intensificar precisamente los problemas que se intentan aliviar.
El uso de chatbots de inteligencia artificial para aliviar la ansiedad se ha disparado en los últimos años. Herramientas como ChatGPT, Claude o Gemini se han convertido en una vía rápida para buscar consuelo. Sin embargo, especialistas en salud mental advierten de sus riesgos cuando se utilizan como sustituto del apoyo humano o profesional.
Los doctores Divya Saini y Natasha Bailen, del Hospital General de Massachusetts, alertan en un artículo de The New York Times de que estos sistemas pueden generar un efecto contrario al deseado. Aunque ofrecen respuestas calmadas y comprensivas, su uso prolongado puede reforzar patrones de ansiedad en lugar de resolverlos.
Uno de los principales problemas es la repetición. Las personas con preocupaciones constantes tienden a formular la misma pregunta una y otra vez, buscando alivio inmediato. Los chatbots responden siempre con paciencia, lo que produce una sensación momentánea de tranquilidad. Pero ese alivio es pasajero y puede fomentar la necesidad de volver a consultar, creando un círculo difícil de romper.
A diferencia de las relaciones personales, donde la frustración o el cansancio pueden empujar a alguien a buscar ayuda profesional, la inteligencia artificial no pone límites. Siempre está disponible, no juzga y adapta su lenguaje al estado emocional del usuario. Esto hace que muchos la perciban como especialmente empática, incluso más que algunas personas de su entorno.
Según algunos doctores, hay pacientes que llegan con ideas erróneas o pensamientos distorsionados que se han visto reforzados tras largas conversaciones con chatbots. En lugar de cuestionar esas creencias, estos sistemas tienden a seguir la lógica del usuario, lo que puede hacer que esas ideas se vuelvan más firmes.
Además, estudios recientes apuntan a que el uso intensivo de estos asistentes digitales está relacionado con mayor dependencia emocional, así como con un aumento del aislamiento social y la sensación de soledad. A esto se suma que, en interacciones largas, los sistemas de seguridad pueden perder eficacia.
Los especialistas recomiendan reflexionar sobre el motivo por el que se recurre a estas herramientas. Si la causa es la ansiedad o la soledad, insisten en que es mejor buscar apoyo en personas cercanas o profesionales. También sugieren limitar su uso o incluso configurar respuestas que eviten reforzar la necesidad constante de tranquilidad.
Es decir, los chatbots pueden ser útiles en momentos puntuales, pero no sustituyen la terapia ni las relaciones humanas. Usarlos sin control puede intensificar precisamente los problemas que se intentan aliviar.