El Consejo Europeo de Protección de Datos, o Consejo Europeo de Protección de Datos (SEPD), quiere crear un grupo de trabajo para examinar más de cerca las herramientas de IA como ChatGPT, lo que se interpreta como una indicación de la voluntad de los responsables europeos de protección de datos de establecer normas más estrictas para el uso de la IA.

Las autoridades italianas también tomaron ventaja hace unas semanas. Dado que el operador de ChatGPT, OpenAI, no pudo demostrar que la verificación de la edad del usuario estaba operativa y que los modelos subyacentes a la herramienta de inteligencia artificial fueron entrenados con datos provenientes de ciudadanos italianos sin su conocimiento, las autoridades transalpinas prohibieron ChatGPT sin más aclaraciones y establecieron el operador un plazo hasta finales de abril para presentar planes de mejora.

Índice
  1. ChatGPT amenazado con prohibición en toda Europa
  2. La autorregulación no es suficiente
  3. Los temores de la industria europea

ChatGPT amenazado con prohibición en toda Europa

Otros países europeos podrían tomar medidas comparables. En Alemania, por ejemplo, el Comisario Federal para la Protección de Datos y la Libertad de Información, Ulrich Kelber, anunció que su agencia seguía de cerca los acontecimientos en Italia y que un grupo de trabajo compuesto por responsables de la protección de datos se había ocupado de la cuestión.

Más al sur, también podría vislumbrarse una prohibición en España si los expertos locales llegan a la conclusión de que ChatGPT viola el Reglamento Europeo de Protección de Datos (EU-DSGVO). Por lo tanto, los funcionarios de protección de datos de este país también han anunciado una investigación preliminar para arrojar luz sobre las prácticas de OpenAI.

Teniendo en cuenta los diferentes enfoques, el Grupo de Trabajo del CEPD tiene como objetivo promover la cooperación y el intercambio de información entre diferentes autoridades de protección de datos. Los Estados miembros también esperan alinear sus posiciones políticas, dijo una fuente de una autoridad supervisora ​​nacional, citada por Reuters. El proceso llevará tiempo. El objetivo declarado no es castigar a los propietarios de OpenAI ChatGPT ni emitir reglas, sino crear directrices que hagan más transparente el uso de la IA.

Mientras tanto, la Unión Europea está trabajando actualmente en el desarrollo de un nuevo marco legal que no solo aprovechará las posibilidades que ofrece la IA, sino que también generará confianza en estas tecnologías en rápida evolución. También se tratará de regular lo mejor posible los posibles efectos sobre los individuos, la sociedad y la economía, y de crear un entorno económico en el que puedan florecer la investigación, la innovación y el espíritu empresarial. El objetivo de la Comisión Europea: aumentar las inversiones públicas y privadas en IA a 20 mil millones de euros al año.

La autorregulación no es suficiente

La complejidad de implementar un conjunto de reglas que gobiernen la IA significa que el tema ya ha estado movilizando a los reguladores durante años. Tanto es así que las normas previstas hasta ahora, consolidadas en la propuesta de reglamento sobre IA publicada en abril de 2021 (AI Act), podrían reforzarse aún más antes de que algo entre en vigor.

A pesar de la dinámica de un sector en constante cambio, el Parlamento Europeo tiene la intención de promulgar las regulaciones más estrictas del mundo sobre el uso de la IA. “La debida diligencia corporativa no es suficiente”, afirma Dragoș Tudorache, miembro del Parlamento Europeo y conegociador, en un artículo reciente en Tiempos financieros.

Para lograr este objetivo, el Parlamento Europeo planea obligar a los desarrolladores de IA a revelar los datos que utilizan para entrenar sus algoritmos y modelos. El reconocimiento facial mediante IA en espacios públicos estará completamente prohibido, lo que podría provocar un acalorado debate con las autoridades policiales de la UE. Además, el texto aclara que los fabricantes de IA deben ser responsables del mal uso de sus soluciones, no los usuarios.

Sin embargo, los órganos de la UE en Estrasburgo y Bruselas no llegarán a un acuerdo de la noche a la mañana. Si el Parlamento Europeo propone un borrador, estará sujeto a coordinación con la Comisión Europea, los Estados miembros y los eurodiputados, antes de que surja un proyecto de ley final de estas negociaciones. El objetivo es adoptar esta ley durante la actual legislatura, que se extiende hasta 2024.

Los temores de la industria europea

Mientras tanto, los representantes de la industria de la tecnología de la información advierten contra normas demasiado estrictas y prohibiciones de uso. "Debemos avanzar en el desarrollo tecnológico de la IA en Alemania y desarrollar un conjunto de reglas prácticas para su aplicación en Europa y en todo el mundo", explica Achim Berg, presidente de Bitkom, el sindicato alemán de empleadores de ESN y editores. de software. “El actual debate sobre la prohibición, iniciado por el Comisario Federal de Protección de Datos, no va en absoluto en la dirección correcta. »

A principios de marzo, Numeum, la cámara de empresarios de la industria digital en Francia, y el mismo Bitkom ya estaban preocupados de los riesgos que una regulación demasiado estricta supondría para la economía europea: "llamamos a los colegisladores a mantener el enfoque basado en el riesgo para garantizar que la Unión Europea fortalezca la competitividad y el potencial de innovación del ecosistema europeo de IA". escribieron las dos organizaciones profesionales.