Las claves del histórico acuerdo de la UE para regular los riesgos de la inteligencia artificial

Las claves del histórico acuerdo de la UE para regular los riesgos de la inteligencia artificial 

El acuerdo se consiguió a última hora de este viernes y supone la primera norma en el mundo que permite fijar las primeras reglas sobre una herramienta que se usa cada vez más.

Una ilustración de la inteligencia artificial frente a una bandera de la UESOPA Images

Era cuestión de tiempo y este viernes ha terminado siendo una realidad. Pese a las discrepancias, la Unión Europea ha logrado alcanzar un acuerdo histórico para aprobar la que va a ser la primera ley del mundo para regular la inteligencia artificial (IA).

El avance de esta herramienta tecnológica y la falta de medidas en el marco internacional había generado muchos temores sobre su crecimiento y los peligros reales que podrían derivar del mismo. Pero tras una reunión de lo más tensa, que se ha alargado durante cuatro días, todo ha terminado con las sonrisas de los representantes europeos.

Hasta Bruselas había viajado la secretaría de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, para liderar el equipo negociador del Consejo. Un desplazamiento que ha terminado de la mejor manera. "Hemos logrado la primera regulación internacional de inteligencia artificial del mundo, nos sentimos muy orgullosos", ha celebrado.

Los negociadores del trílogo (Consejo, Parlamento y Comisión Europea) arrancaron el miércoles una reunión que ha terminado desembocando en un enfoque que detalla algunas de las restricciones que tendrá la herramienta.

Pero hay algunas preguntas que surgen del histórico pacto alcanzado en la UE. ¿Qué regula la ley? ¿Cuándo entrará en vigor? Varias cuestiones que, sin necesidad de preguntar a la inteligencia artificial, pueden ir acompañadas de respuestas.

Qué regula la nueva norma

Cerca de la madrugada, tras varios días de intensas negociaciones, pero sí, la luz verde para regular la inteligencia artificial marca un antes y un después. Sobre todo, porque la norma, que llevaba siendo objeto de debate desde 2021, logró el 'sí' definitivo del trílogo europeo.

En el texto acordado, se establecen una serie de restricciones para algunas de las aplicaciones de IA que son consideradas una amenaza para el sistema democrático y la ciudadanía.

Unos casos que suponen un riesgo "inasumible" y que están protagonizados por los sistemas de categorización biométrica, la extracción no dirigida de imágenes para crear bases de datos de reconocimiento facial, el reconocimiento de emociones, sistemas de puntuación social o sistemas que manipulan el comportamiento.

Una dureza que se rebajará en el caso de que ese uso de sistemas de vigilancia biométrica en espacios públicos vaya acompañado de una orden judicial previa y se use para una lista de delitos estrictamente definidos. Por ejemplo, para la búsqueda selectiva de víctimas de secuestro, trata o explotación sexual, para evitar una amenaza terrorista específica y presente y para localizar o identificar a un sospechoso de haber cometido un delito de los recogidos en la norma.

Los sistemas de IA autorizados pero considerados de muy alto riesgo por su importante impacto en la salud, la seguridad, los derechos fundamentales, el medio ambiente y el Estado de derecho también han quedado definidos. Estos son, por ejemplo, los relacionados con la banca, sectores como el de los seguros o aquellos que tratan de manipular los resultados electorales.

Unos hechos que la propia ciudadanía podrá denunciar, en el caso de que crea que se han vulnerado sus derechos. Algo que obliga a que la inteligencia artificial actúe conforme a los requisitos de transparencia: ofreciendo documentación técnica sobre su desarrollo y entrenamiento o cumpliendo con algunas normativas europeas, como la de derechos de autor.

Las medidas también incluirán reglas específicas para los modelos fundacionales, como las plataformas ChatGPT o DALL-E, que vieron la luz después de que la Comisión Europea presentara su primera propuesta de regulación.

Para vigilar que se cumplen con los parámetros de la norma, la legislación prevé sanciones que irán desde los 35 millones de euros o el 7% del volumen de negocio global, en función del tamaño de la compañía.

"Faltan detalles importantes"

Nada más conocer algunos de los principales flecos de la ley acordada en la Unión Europea, ya han aparecido algunas posturas que se muestran contrarias a varias de las regulaciones que aparecen en el texto.

La Asociación de la Industria de la Informática y las Comunicaciones (CCIA Europa) ha emitido un comunicado en el que han criticado que "se sacrificó una legislación sobre IA preparada para el futuro en aras de un acuerdo rápido".

Pese a destacar el trabajo de los negociadores, ha lamentado la ausencia de "debates en profundidad sobre muchos aspectos críticos". "Al acuerdo le faltan detalles importantes. Sin mejoras importantes a nivel técnico en las próximas semanas, la Ley de IA será una oportunidad perdida para Europa. El acuerdo introduce una serie de mejoras bienvenidas al texto inicial, como la posibilidad de que los desarrolladores demuestren que un sistema no representa un alto riesgo", ha explicado.

Desde CCIA Europa consideran que el texto final "se aleja en gran medida del enfoque sensato basado en el riesgo propuesto por la Comisión". "La Ley de IA acordada impone obligaciones estrictas a los desarrolladores de tecnologías de vanguardia que sustentan muchos sistemas posteriores y, por lo tanto, es probable que ralentice la innovación en Europa", han expuesto.

En el escrito, el vicepresidente senior y director de CCIA Europa, Daniel Friedlaender, considera que se trata del "comienzo de un trabajo técnico importante y necesario", pero cree que "la velocidad parece haber prevalecido sobre la calidad". "El impacto negativo podría sentirse mucho más allá del sector de la IA", ha reprochado.

Entrada en vigor

El importante acuerdo alcanzado este viernes es sólo el primer paso para que el texto acordado pueda transformarse en ley. La entrada en vigor podría alargarse durante un período de unos tres años.

La legislación debe ser ratificado todavía por las dos partes antes de ponerse en marcha, tanto por el Parlamento como por el Consejo Europeo. Y esto podría retrasar hasta finales de 2026 la aprobación definitiva.

Eso sí, si no hay ningún tipo de imprevisto y ninguna de las partes firmantes en el escrito se termina echando para atrás. Pero lo más positivo es que, dos años después de la primera propuesta, Europa ya cuenta con el primer marco legislativo en el mundo para poner coto a los temores derivados del desarrollo casi imparable de la inteligencia artificial.

MOSTRAR BIOGRAFíA

Sergio Coto es redactor en El HuffPost. Nació en Madrid, en 1995, y estudió Periodismo en la Universidad Complutense de Madrid. Antes de llegar a El HuffPost, trabajó como redactor en '20 Minutos', 'El Mundo', 'La Sexta', 'Bankinter' y 'El Plural'. Puedes contactar con él en sergio.coto@huffpost.es