Pierre, profesor de psiquiatría, sobre el impacto de la IA: "Estamos experimentando el mismo cambio radical en los hospitales que con la llegada de internet"
La profesión médica se ha visto sacudida por estas nuevas tecnologías.

La inteligencia artificial ha irrumpido en el mundo para quedarse, y a veces, puede constituir una herramienta útil para los jóvenes. Otras veces no. Muchos de ellos hacen uso de los robots conversacionales para confiar las emociones que no se atreven a compartir en público. En algunas ocasiones, esto ha servido para llegar incluso al suicidio. Tal y como apunta el diario francés Le Monde, la profesión médica está siendo sacudida por estas nuevas tecnologías.
"El mismo terremoto nos está ocurriendo en el hospital que cuando llegó Internet", asegura Pierre-Alexis Geoffroy, profesor de psiquiatría en un hospital de París, en conversación con el medio de comunicación. "Casi todos mis pacientes jóvenes, entre 18 y 40 años, han usado ChatGPT u otro chatbot antes de venir a verme, ya sea porque sufren depresión, insomnio, trastorno bipolar, esquizofrenia o ansiedad", cuenta, claramente preocupado.
Asimismo, asegura que "el conocimiento adquirido de forma autónoma", se está volviendo "difícil de sacudir en la consulta". "Estos robots conversacionales pueden atrincherar a los pacientes en un pensamiento", alerta el especialista.
Ejemplos que se cuentan a pares
El periódico francés se ha puesto en contacto con algunos profesionales para que cuenten ejemplos que ven en consulta. Algunos denotan un completo peligro en el uso de estas tecnologías. Uno de ellos, que prefiere pertenecer en el anonimato, cuenta la historia de una persona que padecía "un trastorno autista".
El paciente "fue convencido por ChatGPT de que era un genio incomprendido en la ciencia y desde entonces ha enviado archivo tras archivo a instituciones para obtener financiación", cuenta el médico. De hecho, dice, "este paciente experimenta su relación con el chatbot como si fuera un individuo auténtico".
"Otra persona que atiendo tiene un trastorno somatoforme agudo [preocupación excesiva por los síntomas físicos]. Le gusta jugar con su antidepresivo, añadiendo o quitando una o dos dosis cada día", explica. ChatGPT le aseguró que este hábito explicaba todos los síntomas funcionales que estaba experimentando. Por ello, "contradije al chatbot durante la consulta, especificando que estos pequeños cambios de dosis no podrían causar tales efectos y mi paciente me ignoró".
Estas declaraciones sanitarias coinciden con la llegada, por parte de OpenAI, de ChatGPT Health. El pasado 7 de enero de 2026, la empresa explicó que los usuarios, al conectar sus historiales médicos, podrán obtener respuestas "más personalizadas" del robot a partir de finales de enero sin que sea "ni un diagnóstico ni un tratamiento". En marzo de 2025, la Organización Mundial de la Salud (OMS) dio recomendaciones a gobiernos y fabricantes sobre el uso de modelos de procesamiento del lenguaje médico (LLM), como:
- El deber de prueba.
- La necesidad de transparencia de datos.
- La evaluación del riesgo psicológico.