El último pronóstico de Stephen Hawking advierte de la extinción de la raza humana

El último pronóstico de Stephen Hawking advierte de la extinción de la raza humana 

El influyente científico murió en 2018, pero sus reflexiones están más presentes que nunca.

Stephen Hawking mira a cámara durante un discurso de 2007 en Londres.Bruno Vincent

Stephen Hawking, uno de los científicos más influyentes de los últimos cien años, murió en 2018 como consecuencia de la Esclerosis lateral amiotrófica (ELA) que le fue diagnosticada 55 años antes. Ha pasado casi un lustro de su muerte, pero las teorías y predicciones del físico y teórico británico están hoy más presentes que nunca. 

Porque más allá de las aportaciones de Stephen Hawking a la física teórica, la cosmología o la divulgación científica, también reflexionó sobre el impacto que tiene la tecnología en nuestro día a día y el papel que puede jugar la inteligencia artificial (IA) en el desarrollo de la humanidad.

El fenómeno Chat GPT y la irrupción de la inteligencia artificial en el mercado laboral han servido excusa para el diario La Razón para recuperar unas declaraciones de Stephen Hawking realizadas durante una entrevista de la BBC en 2014, en la que advertía de los peligros de un desarrollo sin control de la IA. En 2015, Hawking firmó junto a otros científicos una carta abierta que pedía una regulación para evitar su uso indebido. 

Un documento similar a la carta firmada hace unas semanas por el director ejecutivo de Tesla Elon Musk, el cofundador de Apple Steve Wozniak y unos mil científicos pedían en tono apocalíptico que se suspendiesen durante seis meses los experimentos en los que se use inteligencia artificial porque "pueden plantear profundos riesgos para la sociedad y la humanidad".

Diez años antes, Stephen Hawking concedía una entrevista a la BBC y reflexionaba sobre el futuro de la inteligencia artificial, advirtiendo que podría ser el mayor logro de la humanidad, pero también el último si no se maneja adecuadamente. Hawking señalaba entonces que la IA podría acabar desarrollando una voluntad propia y que, si esa voluntad choca con los intereses humanos, podríamos tener un problema. 

"Los humanos, que son seres limitados porque su evolución biológica es lenta, no podrán competir con las máquinas y se verán superados", apuntó el científico, autor de Breve historia del tiempo. "El desarrollo de una completa inteligencia artificial podría traducirse en el fin de la raza humana", sentenciaba entonces a través del dispositivo de generación de voz instalado en su silla de ruedas, que le permitía comunicarse al seleccionar palabras a través de movimientos faciales. 

En su libro póstumo, Respuestas breves a las grandes preguntas, Stephen Hawking volvió a hablar de la inteligencia artificial para incidir en la idea que había apuntado años antes: “Podemos enfrentarnos a una explosión de inteligencia que, en última instancia, resulte en máquinas cuya inteligencia supere a la nuestra en más de lo que la nuestra supera a la de los caracoles”, escribió.

El "padrino" de la IA avisa de los peligros de la tecnología

La visión de Stephen Hawking coincide con la del también británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la inteligencia artificial, que ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías, según se recoge en una entrevista publicada por The New York Times.

A menudo llamado el "padrino" de la IA, Hinton aseguró que a sus 75 años lamenta ahora haber dedicado su carrera a este ámbito. "Me consuelo con la excusa normal: si no hubiese sido yo, otro lo habría hecho", señaló al diario neoyorquino.

Su voz de alarma se suma a las advertencias que en los últimos meses han hecho otros expertos, sobre todo a raíz del lanzamiento de los nuevos bots de texto como el popular ChatGPT y las grandes apuestas que los gigantes tecnológicos están haciendo en este ámbito. 

"La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían, pero la mayoría pensaba que estaba muy lejos. Yo pensaba que estaba muy lejos. Pensaba que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso", explica en la entrevista.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos.