El maratón de debates duró casi tres días, pero la Unión Europea ha elaborado un texto reglamentario sobre la inteligencia artificial. Para Thierry Breton, comisario responsable del mercado interior y responsable del proyecto en las negociaciones, se trata de un “momento histórico”. De hecho, la UE es la primera potencia en regular esta tecnología, pero los debates fueron particularmente intensos entre quienes querían una regulación flexible para no restringir la innovación y quienes estaban a favor de un conjunto de limitaciones al uso de la tecnología. AI.

Como prueba de las tensiones en torno a estas directrices, el ministro Jean-Noël Barrot indicó en un mensaje que el texto constituye "un paso en un proyecto iniciado hace cuatro años que requiere debates adicionales". Como otros países, pidió el establecimiento de “discusiones técnicas” para mejorar ciertos puntos. Thierry Breton respondió que la Ley de IA es “decididamente favorable a las empresas” y que “ya no está abierta a discusión”.

Índice
  1. Regulación basada en riesgos
  2. Prohibiciones y excepciones

Regulación basada en riesgos

Pero, ¿qué contiene exactamente el reglamento sobre inteligencia artificial? En primer lugar, impone obligaciones basadas en el nivel de riesgo de los sistemas de IA. El texto hace hincapié en aquellos considerados de “alto riesgo” que causan daños a la salud, la seguridad, los derechos fundamentales, la democracia, etc. Para estos sistemas será necesario realizar un análisis de impacto antes de comercializarlos. Además, se establece una obligación de transparencia y explicabilidad de los modelos.

La cuestión de la IA generativa ha provocado el mayor debate. Es cierto que la llegada de ChatGPT procedente de OpenAI hace un año ha redistribuido las cartas y ha cambiado la forma de abordar la regulación. Francia y Alemania estaban más bien a favor de la autorregulación para proteger a sus defensores, Mistral AI (que acaba de liderar una recaudación de fondos de 385 millones de euros) y Alep Alpha (respaldado por SAP o el grupo Schwarz). Pero los parlamentarios europeos querían más restricciones a los actores dominantes (en su mayoría estadounidenses). Como suele ser el caso en la UE, se llegó a un compromiso con un módulo de obligaciones basado en los “riesgos sistémicos” que presentan los modelos generativos de IA.

Prohibiciones y excepciones

Otra fuente de tensión son los sistemas de inteligencia artificial prohibidos. Los colegisladores acordaron una lista que incluye “sistemas de categorización biométrica que utilizan características sensibles (por ejemplo: opiniones políticas, religiosas, filosóficas, orientación sexual, raza)”. También existe la extracción no selectiva de imágenes faciales de Internet o mediante videovigilancia para crear bases de datos de reconocimiento facial. Se trata en particular de la empresa Clearview, que ha sido denunciada varias veces en Europa por sus prácticas de desguace y reconocimiento facial. Otras prohibiciones incluyen: reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, calificación social basada en el comportamiento o características personales, sistemas que manipulen el comportamiento humano y exploten las vulnerabilidades de las personas.

A toda esta lista debemos agregar excepciones, particularmente para las fuerzas del orden. El reconocimiento facial “a distancia” (en particular con una cámara o un dron) está autorizado, por ejemplo, “sujeto a autorización judicial previa y para listas de infracciones estrictamente definidas”. Se tratará de “la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave”. Sin duda, este texto dará lugar a controversias en las que la jurisprudencia aclarará estas exenciones. Otro ámbito que se beneficia de una exención son los modelos de código abierto que no están sujetos a restricciones de transparencia. Finalmente, una estructura de control adscrita a la Comisión Europea se encargará de controlar la correcta aplicación del texto. En caso de incumplimiento, podrá imponer multas de hasta 35 millones, o el 7% de la facturación global. Los Estados miembros trabajarán ahora para adaptar su legislación nacional a este reglamento que debería entrar en vigor en 2026.