Un nuevo estudio lo confirma: la IA a la que le cuentas tus síntomas falla el 80% de las veces sus diagnósticos médicos
Es un apoyo útil, pero con límites claros.

Consultar a la inteligencia artificial cuando aparece un síntoma se ha convertido en un gesto cada vez más habitual. Estas herramientas prometen respuestas rápidas, accesibles y disponibles las 24 horas. Sin embargo, un nuevo estudio ha señalado que sus respuestas no son muy acertadas. De hecho, los sistemas de IA fallan en más del 80% de los diagnósticos cuando los datos del paciente están incompletos.
Estas plataformas basadas en inteligencia artificial se han extendido en el ámbito sanitario con el objetivo de aliviar la carga de los servicios médicos, especialmente en atención primaria. Chatbots y asistentes virtuales ya ayudan a resolver dudas básicas.
Su principal ventaja es la rapidez. En cuestión de segundos, pueden analizar síntomas y ofrecer posibles causas. Pero los expertos insisten en que su función debe ser únicamente informativa y nunca sustituir el diagnóstico de un profesional sanitario.
Problemas desde el inicio del diagnóstico
El estudio, publicado en Jama Network Open, analizó el rendimiento de 21 modelos de lenguaje de grandes empresas tecnológicas como OpenAI, Google o Anthropic. Los investigadores utilizaron 29 casos clínicos en los que la información se iba revelando poco a poco, simulando una consulta médica real.
Los resultados demostraron que cuando los datos eran limitados, es decir, en las primeras fases del proceso clínico, los sistemas cometían errores en más del 80% de los casos. El principal fallo detectado es que estos Chatbots tienden a precipitarse. En vez de plantear varias hipótesis, suele centrarse demasiado rápido en una única posible enfermedad, lo que aumenta el riesgo de error.
Mejora con más información, pero no es suficiente
Cuando los modelos disponían de información completa —historial clínico, exploración física y resultados de laboratorio—, su precisión mejoraba notablemente. En estos casos, el margen de error se reducía por debajo del 40% e incluso algunos sistemas alcanzaban tasas de acierto superiores al 90%.
Aun así, los expertos advierten que esto no resuelve el problema principal: la mayoría de consultas reales comienzan precisamente con información incompleta y síntomas poco claros. "Estos modelos funcionan muy bien cuando el caso ya está definido, pero tienen dificultades en las etapas iniciales", explicó Arya Rao, investigadora del sistema sanitario Mass General Brigham y autora principal del estudio.
¿Tiene futuro la IA en medicina?
A pesar de sus limitaciones, los expertos no descartan su utilidad. En regiones con difícil acceso a médicos, estas herramientas podrían desempeñar un papel importante como primer filtro o apoyo informativo.
De hecho, grandes tecnológicas están desarrollando modelos más especializados en salud, como AMIE de Google, con resultados preliminares prometedores. Sin embargo, los investigadores coinciden en que aún queda camino por recorrer.
Las propias tecnológicas advierten de estas limitaciones. Sistemas como Gemini o Claude incluyen recordatorios para que los usuarios consulten con profesionales sanitarios, y las políticas de uso de plataformas como OpenAI prohíben ofrecer diagnósticos médicos sin supervisión.
