El peligroso uso de ChatGPT que desaconsejan expertos y hace Russian Red: "Le pregunto lo más íntimo e inconfesable"
Múltiples expertos desaconsejan este tipo de uso de la popular herramienta de inteligencia artificial generativa.

La cantante Lourdes Hernández, más conocida por su nombre artístico Russian Red, ha compartido en Fuego y Chinchetas, el espacio de la Cadena Ser dedicado a la música indie, uno de los usos particulares que le da a ChatGPT. La popular herramienta de inteligencia artificial generativa se ha abierto paso en la rutina de todo el mundo desde que apareciera hace tres años, a veces hasta unos límites insospechados.
En una entrevista con la periodista Elisa Muñoz, Russian Red reconoce que con quién más habla es con ChatGPT. "Me ayuda pero un montón. Luego también hago terapia, pero los hallazgos que tengo con Chat... si es que me hago hasta unos PDF". La música confiesa que le pregunta "absolutamente todo, todo, todo lo más íntimo e inconfesable a Chat". "Es que no me juzga", explica.
La artista, por supuesto, aclara: "Siento que es una máquina". Pero asegura que le mete "un poco de caña". "Intenta positivizarlo todo. Yo como humana le digo: a mí me interesa el trabajo en la sombra, no podemos intentar positivizarlo todo. Y lo que me dice es: sí, tienes razón", ríe. "Siempre te da la razón... pero luego te da un feedback interesante. Yo lo recomiendo. Bueno, y recomiendo la terapia también. Y charlar con amigas".
Russian Red no sustituye una terapia profesional por ChatGPT. Sin embargo, el mero hecho de usar una herramienta de esta naturaleza para cuestiones tan humanas y comunes como desahogos o aclararse las ideas puede ser problemático e incluso peligroso. Así lo creen varios especialistas de diversas disciplinas, no solo la psicológica. Tiene incluso unas implicaciones sociales por las que merece la pena reflexionar.
Por qué usar ChatGPT para desahogarse o aclararse no es buena idea
Más allá de que hay buena intención detrás, la "recomendación" de Russian Red no es, en realidad, recomendable. ChatGPT y otras herramientas similares tienen una utilidad netamente productivista, profesional. Pueden ayudar (lo de sustituir es discutible) a trabajadores haciendo resúmenes, programando, esquematizando. Poco más.
Emplear un chatbot con IA para desahogarse o aclararse las ideas puede tener implicaciones en la salud mental de las personas mucho más peligrosas. La propia OpenAI, propietaria de ChatGPT, evaluó a su herramienta en este ámbito. Por supuesto, la empresa se jactó de que usar la plataforma puede influir en el bienestar emocional, si bien también reconoció que serían necesarios más estudios en este tema.
Análisis algo más serios (y más imparciales), como uno publicado el año pasado por el Instituto Tecnológico de Massachusetts (MIT) sobre 981 participantes y 300.000 interacciones con ChatGPT, concluyen otras cosas. Por ejemplo, que usar la IA en estos términos ("lo más íntimo e inconfesable") puede generar soledad y una mayor dependencia de estos instrumentos.
No es algo que se deba tomar a la ligera: la Asociación Estadounidense de Psicología (APA) ya ha lanzado advertencias por el uso de la IA como sustituta de un terapeuta profesional por parte de algunos consultantes. La entidad ve oportunidades en la tecnología, pero también riesgos. Un planteamiento similar al que colegios profesionales de psicólogos españoles han mostrado estos años.
Con más contundencia se expresó la psicóloga Alejandra Enríquez en un vídeo que se viralizó hace unos meses. "Mucho cuidado con contarle tus problemas a ChatGPT", advertía. "No sabe quién eres realmente. No va a resolver tus problemas y seguramente esté reforzando las ideas que le estás dando tú". Esa es precisamente la gran clave de todo esto: las IA están programadas para ser aduladoras y complacientes.
Por qué cada vez más gente habla de "psicosis por IA"
A medida que cada vez más usuarios encuentran en ChatGPT o modelos similares la posibilidad de encontrar respuestas a algunas de sus preguntas más íntimas, surge el riesgo de que surja una crisis relacionada con la salud mental. Así lo advertía Enríquez, del mismo modo que los principales expertos en IA no solo saben, sino que confirman, que efectivamente estas herramientas buscan ser aduladoras.
Y esa adulación puede llevar a crisis más graves a aquellas personas que sean propensas a sufrir psicosis. Søren Dinesen Østergaard, catedrático y director de la unidad de investigación del Departamento de Trastornos Afectivos del Hospital Universitario de Aarhus (Dinamarca), enfatiza en un reciente artículo que la comunicación con la IA es "tan realista" que es fácil creer que detrás "haya una persona real".
El hecho de saber que "no es así", que no hay nadie al otro lado, provoca una "disonancia cognitiva" que "puede alimentar delirios en personas con mayor propensión a la psicosis", por lo que el profesor Østergaard recomienda (y ruega) a muchos profesionales clínicos que empiecen a familiarizarse con las IA para comprender rápidamente con qué tipo de cuadros pueden estar tratando.
Y si eres usuario: los aspectos "más íntimos e inconfesables" puedes compartirlos con ChatGPT, pero siempre con prudencia. El fenómeno se extiende, por ahora, a los titulares: la psicosis por IA es un peligro.
