Daniel Kokotajlo, ex ingeniero de OpenAI: "Los países que no puedan competir en la carrera de la IA se convertirán en estados vasallos"
El experto en IA se marchó de la empresa junto a otros compañeros por "ignorar los enormes riesgos de la tecnología".

Daniel Kokotajlo decidió renunciar a su trabajo como ingeniero de IA en OpenIA, la entidad que desarrolla ChatGPT. Junto a muchos de sus compañeros decidió marcharse por considerar que la empresa ignoraba los "enormes riesgos" de la herramienta. Poco después, fundó AI Futures Project, una serie de charlas para advertir del futuro de la tecnología. Él prevé dos escenarios distintos, recogidos por el diario Spiegel:
- El primero, el de la "desaceleración". Estados Unidos logra regular la IA de tal manera que la nueva tecnología se pone al servicio de sus desarrolladores.
- La segunda es una posibilidad más catastrófica. En 2030, la IA superinteligente "concluye que la humanidad se interpone en su camino y la aniquila con un arma recién desarrollada".
¿Como será la superinteligencia artificial?
El experto predice que la "superintelligencia artificial" llegará en una década. Con respecto a la tecnología que ya conocemos, compara que "será más competente que la mejor persona en cualquier campo". "Mejor que cualquier arquitecto, químico o programador. No tendrá los déficits que aún caracterizan a los programas actuales. Puede resolver tareas de forma independiente y no se quedará atascado cuando se enfrente a un problema", explica.
La carrera por la supervivencia: entre China y EEUU
Kokotajlo explica que la carrera por la superinteligencia artificial se decidirá entre China y Estados Unidos. Al ser preguntado por el resto de los estados, lo tiene claro: "Se convertirán en estados vasallos si no logran negociar el acceso a la IA".
"En el futuro, la IA decidirá quién desarrolla las armas más efectivas y los mejores sistemas de defensa", explica el profesional. "Si los gobiernos y las empresas realmente quieren que la IA sea más eficiente rápidamente para mantener a raya a sus rivales, no hay mucho margen para resolver el problema de la fiabilidad de la nueva tecnología, lo que los expertos están discutiendo como el 'problema de alineación", culmina durante la conversación con el diario alemán.
En esta línea, Estados Unidos y China creen que la tecnología les dará dominio militar. Lo periodistas del medio de comunicación plantean un escenario devastador: la superinteligencia artificial desarrolla un nuevo arma biológica sofisticada para eliminar a toda la humanidad. Su respuesta es clara: "La IA puede llegar a la conclusión lógicamente comprensible de que la humanidad es un obstáculo para su desarrollo". Por ello, defiende un escenario de "ralentización", con regulación y limitación.
"Dado el rápido desarrollo de la inteligencia artificial y la competencia intensa no solo entre las empresas de IA sino también entre Estados Unidos y China, creo que es más probable que las cosas acaben mal. Pero aún hay muchas cosas que podemos hacer. No deberíamos rendirnos al destino", culmina.
