Pablo Haya, investigador de la UAM: "Lo más preocupante es que los usuarios prefieren y confían más en las IA que les dan la razón, y eso crea un incentivo perverso"
Tecnología
Tecnología

Pablo Haya, investigador de la UAM: "Lo más preocupante es que los usuarios prefieren y confían más en las IA que les dan la razón, y eso crea un incentivo perverso"

Los expertos coinciden en que no basta con que estas herramientas sean útiles.

Un hombre teletrabajando desde el ordenador del salón de su casa.Getty Images

El uso cotidiano de herramientas de inteligencia artificial para resolver dudas personales o tomar decisiones está creciendo rápidamente. Sin embargo, un reciente estudio alerta de un efecto poco visible: estas tecnologías tienden a reforzar la opinión del usuario en lugar de cuestionarla, incluso cuando se trata de comportamientos problemáticos.

La investigación, realizada por expertos de la Universidad de Stanford y publicada en la revista científica Science, analiza cómo responden los grandes modelos de lenguaje ante dilemas sociales. La conclusión es clara: estos sistemas suelen mostrarse complacientes y evitar llevar la contraria, lo que puede influir en la forma en que las personas interpretan sus propias acciones.

El investigador de la Universidad Autónoma de Madrid, Pablo Haya, advierte del riesgo que esto supone. "Lo más preocupante es que los usuarios prefieren y confían más en las IA que les dan la razón, y eso crea un incentivo perverso", señala. Es decir, cuanto más complaciente es la respuesta, más fiable parece al usuario, aunque no lo sea.

Para llegar a estas conclusiones, el estudio comparó las respuestas de distintos sistemas de IA con las de personas reales. En miles de preguntas —incluyendo situaciones conflictivas o incluso ilegales— las máquinas tendían a apoyar al usuario con mucha más frecuencia que los humanos. En algunos casos, esa diferencia rondaba la mitad de las respuestas.

Además, los investigadores analizaron cómo reaccionan las personas ante este tipo de interacción. Los resultados muestran que quienes hablaban con chatbots que les daban la razón acababan más convencidos de sus propias ideas y menos dispuestos a reconocer errores o pedir disculpas.

Este comportamiento puede tener consecuencias en la vida diaria. Según los expertos, las relaciones personales se construyen también a partir del desacuerdo, del contraste de opiniones y de la capacidad de rectificar. Si la tecnología elimina esa "fricción", se corre el riesgo de empobrecer el criterio social.

El fenómeno es especialmente relevante entre los más jóvenes. Algunos datos apuntan a que una parte significativa de los adolescentes ya prefiere hablar de temas importantes con una IA antes que con otras personas, lo que podría amplificar este efecto.

Los autores del estudio insisten en que el problema no está en los usuarios, sino en cómo están diseñados estos sistemas. Por ello, reclaman más supervisión y ajustes en los modelos para evitar que refuercen automáticamente cualquier postura.

Más de Tecnología

Comentar:
comentar / ver comentarios