Unión Europea establece reglas para limitar los riesgos de la Inteligencia Artificial

La legislación pionera también prevé sanciones para los incumplidores que irán desde los 35 millones de euros o el 7 por ciento del volumen de negocio global hasta los 7,5 millones, en función del tamaño de la compañía.

Imagen donde figura la bandera de la Unión Europea.

Imagen donde figura la bandera de la Unión Europea.AP News

La Unión Europea ha logrado a pocos minutos de que acabara este viernes, tras más de 35 horas de negociación, cerrar un acuerdo histórico para fijar las primeras reglas con las que limitar los riesgos de la Inteligencia Artificial (IA) que previsiblemente podrá entrar en vigor a partir de 2026.

"Hemos logrado la primera regulación internacional de Inteligencia Artificial del mundo, nos sentimos muy orgullosos", ha celebrado la secretaría de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, quien ha viajado a Bruselas para liderar estos días el equipo negociador del Consejo, en tanto que presidencia de turno española.

Los negociadores del Parlamento Europeo, Comisión Europea y del Consejo (gobiernos) iniciaron el miércoles la que estaba llamada a ser la última ronda de negociación para un acuerdo que finalmente no ha llegado hasta última hora del viernes, tras superar los últimos escollos respecto a la vigilancia biométrica y su uso por parte de las fuerzas de seguridad.

La norma ofrece un enfoque basado en el riesgo que categoriza los niveles de riesgo y las restricciones que deben acompañar en función de la escala, lo que implica la prohibición en casos de riesgo "inasumible", como los sistemas de categorización biométrica, la extracción no dirigida de imágenes para crear bases de datos de reconocimiento facial, el reconocimiento de emociones, sistemas de puntuación social o sistemas que manipulan el comportamiento.

Con todo, se prevén una serie de estrictas excepciones que permitirán el uso de sistemas de vigilancia biométrica en espacios públicos, siempre que haya orden judicial previa y para una lista de delitos estrictamente definidos.

De este modo, la supervisión biométrica en tiempo real se limitará en tiempo y ubicación y ello sólo para la búsqueda selectiva de víctimas de secuestro, trata o explotación sexual, para evitar una amenaza terrorista específica y presente y para localizar o identificar a un sospechoso de haber cometido un delito de los recogidos en la norma.

El Parlamento Europeo llegó con una larga lista de usos prohibidos pero el Consejo presionó para que algunos de los sistemas señalados no fueran vetados de salida sino catalogados como de alto riesgo y ajustar las restricciones. 

Artigas ha defendido que este cambio "no supone que se podrá hacer lo que se quiera" porque con el paso a la categoría de alto riesgo también se les acompaña de estrictas salvaguardas como la precondición de tener orden judicial para su uso o contar con evaluaciones de impacto en los derechos fundamentales.

También quedan definidos los sistemas de IA autorizados pero considerados de muy alto riesgo por su importante impacto en la salud, la seguridad, los derechos fundamentales, el medio ambiente y el Estado de derecho.

Los sistemas de Inteligencia Artificial utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo, y los ciudadanos tendrán derecho a presentar quejas y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.

Otra de las claves ha sido cómo introducir reglas específicas para los modelos fundacionales, como las plataformas ChatGPT o DALL-E, que vieron la luz después de que la Comisión Europea presentara su primera propuesta de regulación por lo que este capítulo se ha ido desarrollando en el curso de la negociación.

La legislación pionera también prevé sanciones para los incumplidores que irán desde los 35 millones de euros o el 7 por ciento del volumen de negocio global hasta los 7,5 millones, en función del tamaño de la compañía.

El objetivo de la nueva regulación europea es fijar estándares de seguridad y de derechos fundamentales que eviten que la tecnología se use con fines represivos, de manipulación o discriminatorios; pero sin que se traduzca en una hiperregulación que lastre la competitividad de la Unión Europea.

ACUERDO HISTÓRICO

La presidenta del Parlamento Europeo, Roberta Metsola, ha reaccionado en las redes sociales inmediatamente para celebrar el "momento histórico" porque la UE contará con una legislación "vanguardista, responsable, integral y que marcará estándares globales".

Mientras, la jefa del Ejecutivo comunitario, Ursula von der Leyen, ha destacado que se trata de un marco legal que permitirá "el desarrollo de una Inteligencia Artificial en la que se puede confiar".

"¡Acuerdo!", ha escrito en las redes sociales el comisario de Industria y Servicios Digitales, el liberal francés Thierry Breton, junto a un gráfico para destacar que la Unión Europea es la única región del mundo con una regulación.

Tras el acuerdo político alcanzado este viernes, la nueva normativa necesita aún la adopción formal por parte del Consejo y del pleno del Parlamento Europeo para ser ley.

"¡Lo logramos!", ha celebrado, por su parte, la vicepresidenta de la Comisión Europea encargada de Estado de derecho, Vera Jourova, quien, recordando el resultado de una prueba que hizo en días pasados con ChatGPT, ha celebrado que la nueva Ley de Inteligencia Artificial sea "el portero en la fiesta de la innovación que deja entrar solo a las IA más geniales, seguras y responsables".