David Gross, premio Nobel de Física: "Será muy difícil resistirse a que la IA tome decisiones sobre lanzar misiles nucleares porque actúa muy rápido"
La probabilidad anual de una guerra nuclear podría rondar el 2%.
El físico teórico David Gross, premio Nobel en 2004, lanza una advertencia que va más allá de la ciencia: el verdadero riesgo para la humanidad no es solo tecnológico, sino político. "Será muy difícil resistirse a que la inteligencia artificial tome decisiones sobre lanzar misiles nucleares porque actúa muy rápido", afirma en una entrevista a Livescience, en un momento en el que el equilibrio global se vuelve cada vez más inestable.
Gross, uno de los arquitectos del modelo estándar de la física de partículas, cree que el mundo se acerca a un escenario en el que la automatización y la velocidad de respuesta pueden empujar a delegar decisiones críticas en sistemas que no son infalibles. "Si tienes apenas minutos para decidir si lanzar cientos de misiles, algunos podrían pensar que es más prudente dejarlo en manos de la IA", explica. El problema es que estos sistemas pueden fallar.
De los quarks a la gravedad cuántica
La carrera de Gross ha estado marcada por algunos de los avances más importantes de la física moderna. Su trabajo sobre la libertad asintótica, junto a Frank Wilczek y H. David Politzer, permitió entender cómo interactúan los quarks dentro del núcleo atómico.
Este descubrimiento fue clave para desarrollar la cromodinámica cuántica, una de las piezas fundamentales del Modelo Estándar, que describe cómo funciona la materia a nivel subatómico. Gracias a ello, la física logró unificar tres de las cuatro fuerzas fundamentales: la fuerte, la débil y la electromagnética.
Sin embargo, queda una gran incógnita: la gravedad. Gross lleva décadas trabajando en la teoría de cuerdas, uno de los intentos más ambiciosos de integrar todas las fuerzas en un único marco teórico.
El gran problema: no es la ciencia, es el tiempo
A pesar de los avances, Gross es pesimista sobre el futuro. No por falta de conocimiento, sino por el contexto global. Según sus cálculos, la probabilidad anual de una guerra nuclear podría rondar el 2%, lo que sitúa la "vida media" de la civilización en torno a 35 años.
"No es una estimación exacta, pero refleja el nivel de riesgo actual", señala. La desaparición de tratados de control armamentístico, el aumento de tensiones internacionales y la proliferación nuclear han complicado un escenario que ya era delicado durante la Guerra Fría.
Un mundo más inestable y más complejo
Hoy, el problema no es solo la existencia de armas nucleares, sino su número y la cantidad de actores implicados. Ya no se trata de dos superpotencias, sino de nueve países con capacidad nuclear, lo que multiplica la complejidad de cualquier acuerdo.
Además, las relaciones internacionales se han vuelto más volátiles. Conflictos abiertos, tensiones regionales y una nueva carrera armamentística configuran un escenario que, según Gross, aumenta el riesgo de error.
Inteligencia artificial y decisiones críticas
La irrupción de la inteligencia artificial añade una capa más de incertidumbre. Estos sistemas pueden procesar información a gran velocidad, pero no están exentos de errores.
Gross advierte de un riesgo concreto: que la presión del tiempo lleve a confiar en la IA para decisiones estratégicas. "Sabemos que estos sistemas pueden ‘alucinar’. Y eso, en un contexto nuclear, es extremadamente peligroso", subraya.
¿Hay solución?
El Nobel no es completamente pesimista. Cree que hay medidas claras que pueden reducir el riesgo, empezando por algo básico: recuperar el diálogo entre potencias. Recuerda que, durante décadas, los acuerdos internacionales ayudaron a contener la amenaza nuclear. Sin embargo, muchos de esos mecanismos han desaparecido en los últimos años.
Gross plantea una reflexión incómoda: el mayor obstáculo para avanzar en el conocimiento del universo podría ser la propia supervivencia humana. Mientras la ciencia intenta entender el origen del cosmos o la naturaleza del espacio-tiempo, el riesgo de autodestrucción sigue presente. "Nosotros creamos estas armas", recuerda. "Y también podemos decidir eliminarlas".