Tras un debate que duró más de tres días, el 8 de diciembre de 2023 el Parlamento y el Consejo de la Unión Europea alcanzaron un acuerdo provisional sobre el futuro reglamento europeo relativo a la inteligencia artificial (AI Act) destinado a garantizar la seguridad de las inteligencias artificiales. sistemas de inteligencia (SIA), el respeto a los derechos fundamentales, la democracia y el desarrollo de las empresas.

La aparición de la inteligencia artificial (IA) denominada “generativa”, accesible al público en general y capaz de generar contenidos (textos, vídeos, música, imágenes ultrarrealistas, etc.) a través del razonamiento evolutivo, como ChatGPT, no ha sólo acentúa la urgencia de establecer un marco regulatorio específico.

La Ley de IA proporciona en primer lugar, en respuesta a la necesidad de una aplicación uniforme de las nuevas normas, una definición de SIA "única y preparada para el futuro" (1) complementada con anexos que enumeran enfoques y técnicas de desarrollo de la IA. Por lo tanto, SIA debe entenderse como “software desarrollado utilizando una o más de las técnicas y enfoques enumerados en el Anexo I y que puede, para un conjunto determinado de objetivos definidos por humanos, generar resultados tales como contenido, predicciones, recomendaciones o decisiones”. influyendo en los entornos con los que interactúa” (2).

Tres niveles de riesgo

A continuación, el texto prevé una clasificación de los SIA en 3 niveles según el riesgo que representan por su naturaleza o por el uso que se puede hacer de ellos: el riesgo puede ser limitado (bajo), alto o inaceptable. Dependiendo de la categoría, los proveedores deberán adoptar medidas más o menos restrictivas.

- SIA de riesgo limitado (por ejemplo, un generador de imágenes ultrarrealistas), destinadas directamente a interactuar con el público, están, por tanto, sujetas a una obligación de transparencia limitada, materializada por la mención al usuario de "generadas por inteligencia artificial" (3).

- SIA de alto riesgo (por cuanto intervienen en componentes de seguridad) están a su vez sujetos a un conjunto de requisitos adicionales como la obligación de precisión, robustez y ciberseguridad del producto, control humano, desarrollo de un sistema de gestión de riesgos, documentación técnica... ( 4)

- SIA que presentan un riesgo inaceptable Están prohibidos (5), como los SIA de “social scoring” (que consisten en evaluar o clasificar la fiabilidad de una persona en función de su situación social, comportamiento o características personales) o el uso de técnicas subliminales que alteran el comportamiento de las personas, así como los AIS que explotan las vulnerabilidades humanas. .

Sin embargo, el acuerdo provisional prevé una excepción al principio de prohibición en determinados casos muy específicos, como la búsqueda selectiva de víctimas (en caso de secuestro, trata o explotación sexual), la prevención de una amenaza terrorista específica y actual, la búsqueda para una persona sospechosa de delitos muy graves (terrorismo, trata, explotación sexual, asesinato, violación, etc.). Sin embargo, es necesaria la autorización judicial. Además, el régimen de prohibición no se aplica a usos militares, de seguridad nacional ni de investigación y desarrollo.

Obligaciones que pesan sobre los modelos de fundación

El acuerdo también introduce ciertas obligaciones:

- obligaciones adicionales para las SIA de propósito general - según la definición de la CNIL o AI de propósito general - que no tienen un propósito específico y un amplio campo de aplicación, pero que pueden "implementarse" en una SIA de alto riesgo. Estas SIA estarán sujetas, en particular, a mayores obligaciones de transparencia que incluirán la elaboración de documentación técnica, resúmenes sobre la reutilización de contenidos para los sistemas de formación, etc.;

- obligaciones específicas cuando los modelos básicos, entendidos como modelos de IA previamente entrenados y adaptables, se utilizan, en particular, para el desarrollo de IA generativa como ChatGPT. Cuando presenten un riesgo elevado, estos sistemas deberán realizar evaluaciones de sus modelos y de sus riesgos o incluso elaborar informes de incidencias.

Sanciones de hasta 35 millones de euros o el 7% de la facturación

El texto aún debe ser adoptado formalmente por el Parlamento y el Consejo, antes de integrarse en la normativa europea. Sin embargo, con este último acuerdo publicado actualmente, los principios de la AI Act son lo suficientemente claros para que los operadores adopten un comportamiento proactivo y cumplan con la futura normativa europea que anuncia sanciones que podrían ascender hasta los 35 millones de euros o el 7% del importe total. volumen de negocios anual global (6). Este marco podría promover el desarrollo de nuevas tecnologías, atraer actores de la IA y servir al proyecto europeo de soberanía digital, con el objetivo de poner fin a la dependencia de los gigantes estadounidenses posicionados desde la era de Internet.

1: “Ley AI” 1. “Antecedentes de la propuesta”, 1.1 “justificación de los objetivos de la propuesta”, pág. 4
2: “Ley AI” artículo 3, 1) “Definiciones”
3: Artículo 52. 1) de la “Ley AI”.
4: Capítulo 2, artículos 8 a 16 “Ley AI”.
5: Título 2, artículo 5 “Ley AI”
6: Según el comunicado de prensa del Parlamento Europeo.