El objetivo planteado por la Comisión es simple: adaptar el marco regulatorio existente para responder a los nuevos riesgos y desafíos que la transformación digital presenta para el conjunto de la sociedad. Un objetivo ambicioso cuando sabemos que el marco regulatorio existente data del año 2000 y fue diseñado para fomentar el desarrollo del comercio electrónico. [1].

Está claro que en veinte años los desafíos digitales han evolucionado considerablemente. Nuevos servicios (redes sociales, Marketplaces, etc.) y con ellos han aparecido nuevos modelos económicos (financiación a través de publicidad, financiación basada en comisiones de intermediación, modelos basados ​​en un ecosistema de servicios, etc.). Como resultado, la sociedad se enfrenta a nuevos riesgos como la exposición de los usuarios a múltiples contenidos ilícitos (discursos de odio, desinformación, etc.) y el impacto de los servicios digitales en nuestros derechos fundamentales (privacidad, pluralidad de medios, libertad de expresión, dignidad humana). , etc.).

Es en este contexto que la Comisión Europea adoptó la DSA [2]que entrará en vigor el 17 de febrero de 2024, reformando así las obligaciones de los actores del sector, denominados proveedores de servicios intermediarios (es decir, proveedores de acceso a Internet, proveedores de caché, hosts, plataformas en línea, motores de búsqueda).

Un gran poder conlleva una gran responsabilidad

La DSA prevé diferentes obligaciones de diligencia debida aplicables, según los casos, a todos los servicios intermediarios o sólo a algunos de ellos (hosts, plataformas en línea, plataformas en línea muy grandes, motores de búsqueda muy grandes). Estas obligaciones tienen como objetivo principal combatir los contenidos ilegales en línea y mejorar la transparencia hacia los usuarios de estos servicios.

En primer lugar, en lo que respecta a las obligaciones aplicables a todos los proveedores de servicios intermediarios, el legislador europeo pretende reforzar la transparencia con respecto a los usuarios y agilizar la comunicación y la cooperación con las autoridades europeas y nacionales con respecto a los actores principalmente no europeos. Para ello, la DSA exige el establecimiento de dos puntos de contacto electrónicos únicos para facilitar la comunicación con las autoridades. [3]por un lado, y los usuarios de estos servicios [4]por otro lado. En concreto, los proveedores de servicios intermediarios deberán publicar la identidad de estos puntos de contacto para facilitar su identificación y permitir un contacto directo y rápido.

Los proveedores de servicios intermediarios también deberán designar un representante legal (persona física o jurídica), con domicilio físico, en cada país donde se ofrezcan los servicios cuando no tengan establecimiento dentro de la Unión Europea. Este representante legal podrá ser designado responsable de incumplimientos de la normativa aplicable. Los proveedores de servicios intermediarios también tendrán que incluir en sus condiciones generales de uso, servicios o venta, indicaciones sobre “las políticas, procedimientos, medidas y herramientas utilizadas con fines de moderación de contenidos, incluyendo la toma de decisiones basada en algoritmos y la revisión por un ser humano ( ...) [5] » Finalmente, deberán publicar una vez al año los llamados informes de “transparencia” sobre las actividades de moderación de contenidos.

Obligaciones de los proveedores de servicios de hosting

La DSA también se dirige a los proveedores de servicios de hosting, a una multitud de operadores como los servidores de sitios web, los servicios de almacenamiento e intercambio de archivos (en particular, las redes sociales), los servidores de anuncios, los Pastebins, etc. Consciente de su papel central en la lucha contra los contenidos ilegales en línea, la Unión Europea el legislador les impone obligaciones adicionales a las anteriores. Por lo tanto, los anfitriones tendrán que proporcionar a los usuarios un mecanismo de notificación para denunciar fácilmente por vía electrónica contenidos considerados ilegales. [6]el cual debe ser de fácil acceso y uso.

Recuerde que este mecanismo de notificación ya existía en la legislación francesa, desde la ley de confianza en la economía digital de 2004. [7]. Sin embargo, a diferencia de esto, la DSA impone la carga del cumplimiento del formalismo (es decir, la información obligatoria que debe incluirse en la notificación) al anfitrión y no al usuario que notifica el contenido. Concretamente, corresponde al host configurar su mecanismo para que sea compatible con DSA. Tras esta notificación, podrá decidir eliminar o no el contenido en cuestión o imposibilitar el acceso a él, garantizando los derechos fundamentales de todas las partes interesadas. Por lo tanto, el anfitrión debe buscar constantemente el equilibrio adecuado entre los derechos y libertades de cada persona. Por último, también tendrá la obligación de notificar a las autoridades judiciales o policiales cuando tenga conocimiento de información que haga sospechar que se ha cometido un delito que represente una amenaza para la vida o la seguridad de una o más personas. cometido, se está cometiendo o está a punto de cometerse [8].

Redes sociales, plataformas para compartir contenidos, mercados.

La DSA también prevé una serie de obligaciones específicas aplicables a una categoría particular de servidores: las plataformas en línea. Se definen como cualquier “servicio de alojamiento que, a petición de un destinatario del servicio, almacena y distribuye información al público, a menos que esta actividad sea una característica menor y puramente incidental de otro servicio o una funcionalidad menor del servicio principal ( ...) » [9]. Por tanto, la DSA se dirige en particular a las redes sociales, plataformas de intercambio de contenidos, mercados, etc. Además de las obligaciones anteriores, deben establecer un sistema gratuito para la tramitación interna de las reclamaciones presentadas contra las decisiones adoptadas por el operador que declara contenidos ilegales. Estas denuncias deberán tramitarse “de manera oportuna, no discriminatoria, diligente y no arbitraria” [10].

Posteriormente, la plataforma deberá informar al usuario de su decisión (confirmando o rechazando la primera decisión). Esta información debe ir acompañada de información según la cual el usuario tiene la posibilidad de acceder a un órgano de resolución extrajudicial de conflictos. [11]. Para reforzar la eficacia de la lucha contra los contenidos ilegales, la DSA ha creado “reporteros de confianza” [12]cuyas notificaciones serán tramitadas prioritariamente por las plataformas. Ante el riesgo de una avalancha de notificaciones, la DSA confiere un estatuto especial a las notificaciones procedentes de determinadas entidades, consideradas competentes, independientes y diligentes en la identificación de contenidos en línea. En Francia, el estatus de señalizador de confianza puede asignarse, previa solicitud, a Arcom (Autoridad Reguladora de la Comunicación Audiovisual y Digital).

Además, con el objetivo de transparencia y protección de los usuarios contra determinadas prácticas perjudiciales para los usuarios, la DSA prevé diversas obligaciones, como la prohibición de interfaces manipuladas. [13] para empezar. Estas “trampas de usuario” o “patrones oscuros”, interfaces diseñadas para manipular al usuario a la hora de tomar una decisión (suscribirse o no a una oferta, elegir una configuración). Luego, la prohibición de presentar publicidad dirigida basada en la elaboración de perfiles utilizando datos personales llamados “sensibles” (por ejemplo, información sobre salud, orientación sexual, creencias religiosas, etc.). Además, la prohibición de publicidad dirigida a usuarios menores. [14]. Y por último, información sobre los métodos de personalización de contenidos a través de sus sistemas de recomendación. [15].

El caso concreto de las plataformas de gran tamaño

Por último, la DSA prevé una última ronda de obligaciones aplicables a las plataformas y motores de búsqueda de gran tamaño (operadores cuyo número medio mensual de usuarios activos en la Unión Europea supera los 45 millones). Las autoridades europeas consideran que estos desempeñan un papel aún más importante a la hora de facilitar el debate público, las transacciones económicas y la difusión de información, opiniones e ideas al público. [16]. Por tanto, justifican el establecimiento de obligaciones específicas para estos operadores por consideraciones de orden público.

En concreto, las plataformas muy grandes y los motores de búsqueda muy grandes deben realizar una evaluación de los riesgos relacionados con el uso de sus servicios. [17]. Para ello, deberán identificar, analizar y evaluar “cualquier riesgo sistémico” que surja del diseño y operación de sus servicios. En respuesta a estos riesgos identificados, los operadores deben implementar medidas de mitigación razonables, proporcionadas y efectivas, adaptadas a los riesgos identificados. La DSA elabora una lista no exhaustiva de posibles medidas de mitigación, incluida en particular la adaptación. [18]: el diseño u operación de los servicios, incluidas las interfaces en línea; condiciones generales y su aplicación; el proceso de moderación de contenidos, sistemas algorítmicos, incluidos sistemas de recomendación; del sistema publicitario; fortalecer los procesos y recursos internos; etc.

Estas plataformas y motores de búsqueda de gran tamaño son designados directamente por la Comisión Europea. Hasta la fecha, existen diecisiete plataformas muy grandes (en particular, Amazon Store, Apple - App Store, Booking, Facebook, Google Play, Google Maps, Instagram, LinkedIn, etc.) y dos motores de búsqueda muy grandes (Bing y Google Search). Dos operadores, Amazon y Zalando, ya han cuestionado su condición de “plataformas muy grandes”. Si Amazon obtuvo la suspensión de la decisión de la Comisión Europea calificándola así mediante un procedimiento de emergencia ante el Tribunal de la Unión Europea (procedimiento provisional), la cuestión de su calificación como tal aún no se ha decidido. Por su parte, Zalando habría interpuesto un recurso directamente ante la Comisión Europea. Seguimos esperando una decisión... Por último, cabe señalar que las obligaciones aplicables a las plataformas muy grandes y a los motores de búsqueda muy grandes son aplicables desde el 25 de agosto de 2023.

Controles y sanciones reforzados

Para facilitar la aplicación de la DSA dentro de la Unión Europea, el texto exige que cada Estado miembro designe un coordinador de servicios digitales con la misión de supervisar a los proveedores de servicios intermediarios y la correcta ejecución de la normativa aplicable. [19]. Como tal, el coordinador de servicios digitales tendrá facultades de investigación y sanciones de hasta el 6% de la facturación global anual en los casos más graves.

En Francia, el proyecto de ley para proteger y regular el espacio digital contiene algunas disposiciones para adaptar la legislación francesa a las exigencias de la DSA [20]. El texto prevé, en particular, designar a Arcom como coordinador de servicios digitales. En cuanto a las facultades sancionadoras de este último, el texto incluye los límites máximos previstos por la DSA. Este proyecto de ley fue adoptado en primera lectura en el Senado el 5 de julio de 2023 y por la Asamblea Nacional el 17 de octubre de 2023.