2023, el año en el que la inteligencia artificial lo revolucionó todo

2023, el año en el que la inteligencia artificial lo revolucionó todo

La herramienta ChatGPT ya la han usado más de 100 millones de personas de todo el mundo en poco más de 12 meses. Pero no todos los avances son buenos y, ante los miedos surgidos, la UE ha puesto en marcha la primera ley de IA del mundo.

Una mujer con un robot.Getty Images/Westend61

Poco más de un año después de que la gente conociera de primera mano lo que significa y puede hacer la inteligencia artificial (IA), a través de ChatGPT, la herramienta continúa desarrollándose y a lo largo de 2023 ha logrado unos avances que pocos podían presagiar en un período tan corto de tiempo.

La aplicación salió a la luz en noviembre de 2022 y provocó una auténtica revolución en muchos sectores. En poco más de 12 meses, ya acumula más de 100 millones de consumidores en todo el mundo.

La herramienta desarrollada por la compañía norteamericana OpenAI ha crecido tanto no sólo fuera de nuestras fronteras. En España ya hay cuatro millones de personas que han hecho uso de sus servicios, según los datos facilitados por la empresa GfK.

Pero esos avances, no traen sólo buenas noticias. El miedo a que algunas aplicaciones pongan en peligro algunos de los derechos fundamentales de las personas, ha hecho que algunas instituciones internacionales y compañías tecnologías hayan activado las alarmas.

La regulación europea

Tal está siendo el temor a los problemas derivados de la IA que la primera institución internacional que se ha puesto manos a la obra para sacar adelante la primera normativa en la materia ha sido la Unión Europea.

Dos años después de que la Comisión Europea propusiera el primer marco regulador para las distintas aplicaciones, el pasado 8 de diciembre saltó la noticia. Tras más de 35 horas de intensas negociaciones, se alcanzó un acuerdo histórico.

Aunque previsiblemente no entrará en vigor hasta el año 2026, los negociadores del Parlamento Europeo, Comisión Europea y del Consejo superaron los escollos para establecer los primeros parámetros de regulación de la inteligencia artificial.

El trílogo europeo terminó dando un 'sí' que ha sido definitivo para imponer una serie de restricciones para proteger las amenazas que había para el sistema democrático y la ciudadanía.

Habrá diferentes niveles para etiquetar el sistema de peligrosidad de las aplicaciones, se exigirá transparencia para comprobar que se cumple con la ley de derecho de autor vigente, se prohibirán apps que usen sistemas de identificación biométrica en espacios públicos y sanciones millonarias por incumplir la norma.

Un año de importantes avances

Juan Ignacio Rouyet, experto en IA de la Universidad Internacional de La Rioja (UNIR), recuerda los avances que se han producido en este 2023. "Arrancó con ChatGPT y parece terminar con Gemini (modelo de IA creado por Google)", asegura.

Cree que estos últimos meses han servido para "la democratización de la inteligencia artificial", porque, pese a estar "con nosotros desde hace una década", se encontraba "escondida en proceso operativos de las organizaciones".

"La presentación en sociedad de la IA generativa (ChatGPT, Dall-E, Midjourney) nos ha descubierto un mundo antes oculto", señala, antes de hablar de que "la IA generativa ha despertado miedos y esperanzas".

La presentación en sociedad de la IA generativa (ChatGPT, Dall-E, Midjourney) nos ha descubierto un mundo antes oculto
Juan Ignacio Rouyet, experto en IA de la Universidad Internacional de La Rioja (UNIR)

Una opinión muy parecida a la de Alex Gómez Meneses, profesor y coautor del informe sobre inteligencia artificial de EAE Business School, que considera que ChatGPT ha sido "la punta de lanza". "Ha sido el software que nos ha permitido desarrollar la imagen generativa a nivel usuario", señala.

El experto valora 2023 como el año "para la IA como origen", pero vaticina que 2024 va abrir un nuevo período de retos: "El otro día probé algunas versiones de inteligencia artificial en Office. Todavía no funciona del todo bien, pero va a formar parte de nuestro día a día".

Entre miedos y alegrías

Muchas han sido las noticias que han aparecido y siguen apareciendo sobre los problemas que pueden causar estas herramientas. Pero para Alex Gómez, el principal inconveniente ha sido "la super rápida absorción" que ha habido.  

"Internet nació en los años 60 y en el 95, Bill Gates iba por ahí explicando qué era internet. Hicieron falta 20 o 30 años hasta que se convirtió en una herramienta potente y dio tiempo a las administraciones a incorporarlas a la sociedad. Con la IA, con ChatGPT, no nos ha dado tiempo", asegura.

Internet nació en los años 60 y tardó 20 o 30 años hasta que se convirtió en una herramienta potente. Con la IA no nos ha dado tiempo
Álex Gómez, profesor y coautor del informe sobre inteligencia artificial de EAE Business School

El profesor de la EAE Business School justifica que las diferencias se deben al acceso a internet que tiene la ciudadanía en todo el mundo. "Es accesible casi para todos. Te sorprenderías, pero hay pueblos en África en los que no hay agua y sí internet", reconoce.

Juan Ignacio Rouyet coincide en que ahora hay miedos porque "se empieza a ver más cercano ese horizonte en el que la máquina puede reemplazar al ser humano". Aunque también hay temores a que no se pueda distinguir "la realidad de la ficción" o se pierda el control sobre las decisiones.

Algo que para el experto no solapa a las "esperanzas" ya que consume "recursos naturales que pueden servir para analizar el cambio climático". Y, entre sus avances, también se encuentra la mejora en "la identificación de moléculas que lleva a la creación de nuevos fármacos".

El profesor de la UNIR reconoce que el sistema favorece la creación de un "escenario que facilita el aprendizaje" y puede servir, siempre que esté bien usada, para elaborar "tareas repetitivas" sin que haga falta sustituir a las personas.

El terremoto en OpenAI

Dentro del sector tech, OpenAI se ha convertido en una de las compañías de referencia en estos últimos 12 meses. El desarrollo de las nuevas herramientas de inteligencia artificial ha hecho que la compañía que fundó Sam Altman coga un peso importante en el panorama tecnológico.

Pero en la compañía no sólo ha habido buenas noticias. Hace no mucho tiempo, el pasado mes de noviembre, la empresa se encontró con un frente importante.

Sam Altman, que ya lanzó varios avisos en el Congreso de los Estados Unidos, advirtiendo de que "si esta tecnología va mal, puede ir bastante mal", fue despedido fulminantemente porque la junta no confiaba en "su capacidad de seguir liderando" la compañía. Algo que, cinco días después terminó quedando en nada, tras su regreso al consejo de administración.

A su enorme crecimiento le han ido apareciendo unas dudas de grandes magnitudes sobre las regulaciones o el funcionamiento de las herramientas de inteligencia artificial. 

De hecho, en septiembre, algunos de los dirigentes de las principales compañías tecnológicas, como Elon Musk, de X; Mark Zuckerberg, de Meta; o Bill Gates, cofundador de Microsoft, participaron en una sesión cerrada del Senado de Estados Unidos en la que coincidieron en la necesidad de establecer regulaciones.

Juan Ignacio Rouyet señala que si una de estas herramientas se pone a pensar "puede suponer una cierta amenaza… en el supuesto de que se ponga a pensar cómo acabar con nosotros". Pero no hay que alarmarse y considera que "estamos lejos de tal situación" y sí más cerca que "acabemos con nosotros mismos".

"La buena noticia es que ya hemos previsto el riesgo y por ello seremos capaces de encontrar solución. El riesgo puede estar en una IA poderosa en malas manos. Aunque siempre podremos usar la IA para combatirla", añade.

El riesgo puede estar en una IA poderosa en malas manos. Aunque siempre podremos usar la IA para combatirla
Juan Ignacio Rouyet, experto en IA de la Universidad Internacional de La Rioja (UNIR)

Álex Gómez reitera que el principal problema que han tenido estas herramientas es la facilidad de absorción para la gente, aunque también considera que algunas de ellas "ya tienen límites programados".

"La creatividad computacional va a estar y es evidente que los próximos años vamos a tener muchos casos de denuncia. Entonces, tendremos que estar más alertas y los artistas y creadores de contenido debemos ser capaces de usar esta herramienta como un copiloto, una ayuda", razona.

Un 2024 de "retos" y regulaciones

El coautor del informe sobre inteligencia artificial de EAE Business School considera que 2024 será el "año de los retos" y de la "adopción de la IA como una tecnología de nuestro día a día" tanto a nivel de seguridad y de regulación.

"Va a ser el año de los retos y de la adopción. Un año muy interesante. No vamos a poder explotar todos los beneficios que nos puedan aportar durante este año", adelanta.

Va a ser el año de los retos y de la adopción. Un año muy interesante
Álex Gómez, profesor y coautor del informe sobre inteligencia artificial de EAE Business School

Un vaticinio muy parecido al que lanza Juan Ignacio Rouyet, que cree que vendrá marcado por "la regulación europea" y eso "creará debate social y nos hará ser más conscientes de lo que supone la IA, en sus beneficios y riesgos".

Teniendo en cuenta las tendencias, el profesor de la UNIR justifica que "la seguridad de los datos personales alcanzará un nuevo nivel". Todo porque "se podrán cruzar ahora en forma multimodal: texto, imagen, sonido".

"El reto de la sostenibilidad será crucial. Se seguirá investigando en microprocesadores de IA cada vez más eficientes. Tendremos conciencia de la sostenibilidad medioambiental y social causada por la IA", insiste.

Lo que está claro es que la IA ha supuesto una revolución total en muchos aspectos sociales. Ello ha implicado sustos en las instituciones sobre la seguridad de los ciudadanos y tras la primera regulación, la de la UE, se abre un escenario para poder convivir con un sistema que ha venido para quedarse.

También te puede interesar...