El Nobel de Google frena la euforia de Silicon Valley y explica las tres razones por las que la IA aún no puede pensar ni planificar como un humano
Demis Hassabis recibió el Nobel de Química en 2024 junto a dos compañeros por utilizar la inteligencia artificial para predecir la estructura de las proteínas. Una genialidad que aún tiene límites, como ha explicado en una charla reciente.

La Inteligencia Artificial ya está aquí y tanto es así que a veces cuesta distinguir lo que es realidad y lo que es IA. Este prodigio tecnológico ofrece tantas oportunidades y recursos como dudas genera sobre su utilización, potencialmente dañina como han demostrado recientes trabajos, y especialmente sobre sus efectos entre trabajadores.
Las inquietudes alcanzan a los propios líderes del sector de la IA, pero son ellos mismos los que ponen cierto freno a las capacidades de esta tecnología tan en boga.
El CEO de Google DeepMind, Demis Hassabis, ha querido apuntar los tres elementos claves por los que la IA no puede igualar (aún) a la inteligencia humana ni tampoco pensar o planificar como lo hacemos los seres humanos.
Para quien no le conozca, Demis Hassabis no es solo la mente pensante tras Google DeepMind, también es el Premio Nobel de Química 2024, junto a John Jumper y David Baker, por utilizar la inteligencia artificial para predecir la estructura de las proteínas.
Hassabis aseguró, en una reciente cumbre sobre IA en Nueva Delhi (India) que "no creo que hayamos llegado ahí todavía", pero se detuvo en las tres áreas donde la inteligencia artificial presenta deficiencias.
Las tres grandes debilidades de la IA hoy por hoy
Para el responsable de Google DeepMind, el primer aspecto es el "aprendizaje continuo", ya que entiende que los sistemas tecnológicos están congelados debido a la capacitación recibida antes de su implementación.
"Lo que nos gustaría es que esos sistemas aprendieran continuamente en línea a partir de la experiencia, que aprendieran del contexto en el que se encuentran, tal vez adaptándose a la situación y a las tareas que tenemos para ellos", apuntó en su intervención en el acto.
Como segundo elemento clave, Hassabis detalló los problemas para pensar a largo plazo de estos softwares. "Pueden planificar a corto plazo, pero a largo plazo, como nosotros podemos planificar a lo largo de años, realmente no tienen esa capacidad en este momento".
El gurú dejó para el final una carencia, la de la consistencia, algo que en este punto la inteligencia no es capaz de gestionar. A juicio del responsable de Google DeepMind, la IA es actualmente experta en algunas áreas, hasta niveles muy sofisticados, pero en paralelo no están formadas en otros sectores.
"Por ejemplo, los sistemas actuales pueden ganar medallas de oro en las Olimpiadas Internacionales de Matemáticas, con problemas realmente difíciles, pero a veces pueden cometer errores en matemáticas elementales si se plantea la pregunta de cierta manera", ejemplificó Hassabis ante la audiencia.
