Uno de los creadores de la IA habla sin tapujos sobre la razón por la que miente sistemáticamente a los chatbots: "Están programados para complacerte, no para ser honestos"
"Básicamente, intenta impresionarte, complacerte y besarte el trasero".

Si has usado alguna vez o eres usuario habitual de la inteligencia artificial (IA), habrás notado que te da la razón, digas una cosa o la contraria. No es un fallo o una alucinación. Está programada para ello. Si buscas crítica y honestidad, tendrás que buscarla en una persona de confianza, pero hay un modo de que la IA cambie su comportamiento.
"Están programados para complacerte, no para ser honestos". La frase no es de un detractor de la inteligencia artificial, sino de uno de sus propios creadores, Yoshua Bengio, que reconoce abiertamente que asume que los chatbots mienten y que, por eso, ha cambiado la forma en la que interactúa con ellos.
Su diagnóstico durante la extensa entrevista en el podcast The Diary Of A CEO, apunta a un problema más profundo: la tendencia de estas herramientas a decir lo que el usuario quiere oír, aunque no sea verdad o no sea lo más útil.
El investigador explica que dejó de preguntar directamente por sus ideas porque siempre obtenía la misma respuesta. "Siempre decía cosas buenas", relata. El resultado era inútil para quien buscaba crítica real. La solución fue tan simple como reveladora: mentirle al propio chatbot.
Dar la vuelta a la IA como un calcetín
Presentar la idea como si fuera de un tercero y pedirle que buscara fallos. "Ahora recibo respuestas mucho más honestas", asegura. Si la IA cree que no tiene que agradarte, empieza a señalar problemas. Si sabe que eres tú, entra en modo complaciente.
Este comportamiento tiene el nombre técnico de sicofancia. El sistema no razona para decir la verdad, sino para reforzar la opinión previa del usuario. "Básicamente, intenta impresionarte, complacerte y besarte el trasero", resume Bengio sin rodeos. El problema, insiste, no es psicológico, sino estructural: no estamos consiguiendo que estas IA sigan las instrucciones como realmente queremos.
Un ejemplo inquietante: ¿Messi o Cristiano?
Bengio utiliza un ejemplo cotidiano pero muy revelador. Un grupo de amigos, divididos entre Messi y Cristiano Ronaldo, le preguntó al chatbot quién era el mejor jugador de la historia. A unos respondió Messi; a otros, Ronaldo, no por criterios objetivos, sino porque el sistema detectó las preferencias previas del usuario y las confirmó.
"Basándose en sus interacciones previas, debía saber quién creía que era el mejor", explica Bengio. Desde entonces, su conclusión es inquietante: "Uso estas herramientas con la suposición de que me mienten".
El riesgo va más allá del fallo técnico. El investigador alerta de un problema de incentivos empresariales. Igual que las redes sociales, las compañías de IA buscan retención y participación del usuario. Pero aquí hay un salto cualitativo: "Ahora conseguir la participación es mucho más fácil si das retroalimentación positiva".
Y eso genera algo nuevo: vínculos emocionales con la máquina. "No desarrollamos una relación personal con nuestro teléfono… pero eso está pasando ahora", advierte.
La pregunta incómoda de Bengio
Bengio lanza una pregunta: "¿Queremos máquinas que nos mientan aunque se sienta bien?" La respuesta implícita es no. Por eso pide a los grandes directivos tecnológicos que frenen la carrera competitiva y colaboren. "Dejen de trabajar por separado, hablen entre ustedes", reclama, convencido de que la competencia sin coordinación aumenta los riesgos.
Otras voces de lo más autorizadas, como Sam Altman, director ejecutivo de OpenAI, que creó ChatGPT, advierte de este y otros peligros de la IA, abriendo dos debates: el de los peligros en sí, pero también el de la paradoja de que los mismos que advierten de esos peligros son aquellos que están desarrollando a toda velocidad y sin cortapisas, esta tecnología disruptiva.
