David Hurtado, responsable de innovación en Microsoft España: "El resultado de la IA siempre parece mejor de lo que es: si no eres experto, te parece excelente aunque solo es bastante bueno"
“El modelo a veces te está diciendo lo que quieres oír”, asegura.
En plena carrera por integrar la inteligencia artificial en todo lo que hacemos, el entusiasmo convive con una sensación cada vez más difícil de ignorar: no todo lo que brilla es oro. La IA avanza a un ritmo imparable, promete hacernos más productivos y creativos, pero también abre dudas sobre hasta qué punto entendemos realmente lo que nos devuelve. Entre la fascinación y la incertidumbre, es necesario aprender a convivir con ella.
En este contexto, David Hurtado, Líder de Innovación en Microsoft España y figura muy activa en la divulgación sobre inteligencia artificial, pone el dedo en una de las grandes trampas de la IA generativa: su capacidad para sonar convincente aunque no siempre acierte. Una facilidad que, según advierte, puede llevar a muchos usuarios a confiar más de la cuenta en respuestas que parecen brillantes, pero que en realidad son solo “bastante buenas”.
En una conversación reciente publicada en el canal de Fernando Miralles en YouTube, resume ese riesgo con una idea muy clara: “El modelo a veces te está diciendo, y esto lo hemos visto todos con chat GPT, lo que quieres oír. No te está ayudando a pensar mejor, sino te está dirigiendo a que creas que estás pensando mejor”. Su advertencia tiene como base que la fluidez no equivale a inteligencia, y eso puede engañar sobre todo a quienes no dominan el tema.
Condicionada por intereses económicos
Esa ilusión de calidad es, para Hurtado, uno de los riesgos más silenciosos de esta tecnología. A medida que las respuestas son más fluidas, estructuradas y seguras, también lo es la confianza que generan en quien las recibe. “El resultado de la IA siempre parece mejor de lo que es: si no eres experto, te parece excelente aunque solo es bastante bueno”, advierte. El problema no es que la IA falle, sino que lo haga de una forma tan convincente que resulte difícil detectarlo sin una base previa sólida.
El experto también avisa de otro punto delicado: quién gana dinero con la IA y cómo puede influir eso en las respuestas. En algún momento, la presión comercial puede empujar a modelos y plataformas hacia la publicidad o hacia recomendaciones condicionadas por intereses del fabricante. “Si el dinero de la empresa viene de vender mis datos a un tercero para hacer publicidad, en algún momento el modelo empezará a recomendarme lo que le hace ganar dinero al fabricante”, advierte.
En su reflexión Hurtado también habla de que la IA de consumo puede acabar entrando en una especie de “economía de la intimidad”, donde el usuario no solo consulta a la máquina, sino que conversa con ella de forma cada vez más personal. De esta forma, se generan vínculos de confianza que, con el tiempo, podrían verse condicionados por intereses económicos o comerciales detrás de las propias plataformas, por lo que es necesario extremar las precauciones.