si el CNIL Italia había decidido atacar con fuerza suspendiendo temporalmente el acceso a ChatGPT en el país, mientras que su homólogo francés optó por el camino de una regulación más suave y reflexiva. Como indica Marie-Laure Denis, presidenta de la CNIL, en una entrevista con Les Echos, “la CNIL no descubrió la IA con ChatGPT”. Sin embargo, el deslumbrante éxito de la herramienta OpenAI ha provocado una aceleración en el desarrollo de la IA generativa (Bard, Dall-E, Midjourney, Stable AI, Bloom, Vall-E, Character AI de Google, etc.).
Regulación reflexiva y colaborativa
Ante este aumento, la CNIL ha desarrollado un plan de acción regular esta proliferación de iniciativas garantizando un equilibrio entre innovación y protección de datos personales. En este contexto, el reglamento propuesto establece cuatro objetivos. El primero radica en comprender cómo funcionan los sistemas de IA y su impacto en las personas. El trabajo realizado por el LINC (laboratorio de innovación digital de la CNIL) plantea varios puntos como la transparencia de los modelos de IA, el uso del scraping de datos personales en la web para alimentar los modelos, las consecuencias sobre los derechos de las personas sobre sus datos, etc.
En segunda posición, el regulador debe establecer un marco para explicar el RGPD, en particular frente al desarrollo de la IA generativa. Los recientes anuncios de Google en su conferencia de desarrolladores I/ así lo demuestran. Mejoras en el chatbot bardo no están disponibles en Europa, porque la firma americana tiene dudas sobre su compatibilidad con el GDPR y también cuestiona la normativa europea sobre IA actualmente en discusión. La CNIL prevé varias publicaciones para el verano en torno al diseño de sistemas de IA y la creación de bases de datos para el aprendizaje automático. Además, iniciará una consulta sobre una guía sobre las reglas aplicables al intercambio y reutilización de datos.
Apoyo y vigilancia constante
El tercer bloque del plan de acción hace hincapié en apoyar iniciativas y proyectos de IA para verificar su compatibilidad con las normas de protección de datos personales. Se trata, por ejemplo, de los “sandboxes” organizados por la CNIL sobre programas de IA de determinadas empresas, en particular en el sector sanitario. Además, este año el regulador abrió el programa de “soporte mejorado” para ayudar a las empresas innovadoras en el cumplimiento del RGPD.
Si se realizan esfuerzos sobre la dinámica del desarrollo de la IA, la CNIL permanece atenta a los desvíos. Por tanto, no sorprende que la última parte del plan de acción se refiera a los controles y auditorías de los sistemas de IA. La Comisión ha recibido varias quejas relacionadas con ChatGPT de OpenAI, incluida una remisión del diputado de Renaissance Eric Bothorel. La CNIL envió un cuestionario a la start-up estadounidense que, según Marie-Laure Denis, “tiene un enfoque legalista”. Este no es el caso de todas las empresas. Entonces, Clearview vio aumentada su multa por no haberse conformado su sanción inicialni respondió sobre su cumplimiento del RGPD.
Otras noticias que te pueden interesar