Las claves de la primera ley de Inteligencia Artificial impulsada por Europa

Las claves de la primera ley de Inteligencia Artificial impulsada por Europa 

Garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora, con enorme potencial pero también riesgos, es la base de la normativa, pionera en el mundo. 

Un usuario de Inteligencia Artificial.Getty Images

La Eurocámara vota hoy la primera norma del mundo dedicada a la Inteligencia Artificial. Obligará a marcar contenidos generados por programas como ChatGPT, por ejemplo, en una estrategia quiere regular su uso para garantizar mejores condiciones de desarrollo y empleo de esta tecnología innovadora. "La IA puede aportar muchos beneficios, como lo son una mejor asistencia sanitaria, un transporte más seguro y limpio, una fabricación más eficiente y una energía más barata y sostenible", destaca el Parlamento. El objetivo es alcanzar un acuerdo provisional antes de que acabe 2023 y que sea ley ya en 2024. 

Ya en abril de 2021, la Comisión propuso el primer marco regulador de la Unión Europea para la IA. Ha habido mucho que negociar, mientras se iban produciendo avances en la materia. Ahora, la norma propone que los sistemas de IA que puedan utilizarse en distintas aplicaciones se analicen y clasifiquen según el riesgo que supongan para los usuarios. Los distintos niveles de peligro implicarán una mayor o menor regulación. Una vez aprobadas, serán las primeras normas del mundo sobre IA.

La norma europea dividirá las tecnologías de IA en cuatro categorías de riesgo, desde el mínimo hasta el inaceptable. Son los que siguen: 

Riesgo inaceptable

Los sistemas de IA de riesgo inaceptable son los que se consideran una amenaza para las personas y serán prohibidos. Incluyen:

- manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños

- puntuación social: clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales

- sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.

Aunque existen algunas excepciones a esta calificación. Por ejemplo, los sistemas de identificación biométrica a distancia "a posteriori", en los que la identificación se produce tras un retraso significativo, se permitirán para perseguir delitos graves y sólo cuando haya previa aprobación judicial.

Alto riesgo

Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías.

- Los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos. Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.

- Los sistemas de IA pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la UE:

  • identificación biométrica y categorización de personas físicas
  • gestión y explotación de infraestructuras críticas
  • educación y formación profesional
  • empleo, gestión de trabajadores y acceso al autoempleo
  • acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas
  • aplicación de la ley
  • gestión de la migración, el asilo y el control de fronteras
  • asistencia en la interpretación jurídica y aplicación de la ley.

Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida.

IA generativa

La IA generativa, como ChatGPT, tendría que cumplir requisitos de transparencia:

- revelar que el contenido ha sido generado por IA

- diseñar el modelo para evitar que genere contenidos ilegales

- publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento

Riesgo limitado

Los sistemas de IA de riesgo limitado deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, el usuario puede decidir si desea seguir utilizándolas. Los usuarios deben ser conscientes de cuándo están interactuando con la IA. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes).

La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales. También quiere establecer una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas de IA.

El punto que ha sido más debatido en los últimos días es el de la identificación biométrica remota, que camines por la calle y las cámaras te sigan y reconozcan. En principio, este uso de la IA estará prohibido por ley. Sin embargo, y según informa Euractiv, el Partido Popular Europeo quiere flexibilizar este punto para que, en caso de delitos graves o extrema necesidad, y con autorización judicial, pueda emplearse esta clase de sistema. Hasta que el texto se convierta al fin en Ley, continuarán este y otros debates y hay posibilidad de cambios en el marco. 

Aviso de Amnistía

Ante el debate de hoy, Amnistía Internacional ha pedido al Parlamento Europeo que use la votación para prohibir los sistemas elaboración de perfiles racistas y discriminatorios que afectan a migrantes y a otros grupos marginados, ha dicho hoy Amnistía Internacional en vísperas de la votación, que tendrá lugar el 14 de junio.

La organización pide que el Parlamento prohíba el uso de tecnologías de vigilancia masiva -como las herramientas de identificación biométrica remota en diferido y en tiempo real- en la Ley de IA, que constituye un hito legislativo, indican, pero ha de ser cuidadoso.

La investigación de Amnistía Internacional demuestra que la tecnología invasiva de reconocimiento facial amplía la actuación policial racista y discriminatoria contra personas racializadas, que incluye prácticas como la de parada y registro que afectan de manera desproporcionada a las personas de color. También se utiliza para impedir y restringir el desplazamiento de las personas migrantes y solicitantes de asilo.