Francia y otros estados firman un acuerdo sobre seguridad de la IA

hace 12 meses

000000094903.jpg

El acuerdo, que excluye a China, incluye recomendaciones sobre el seguimiento de los sistemas de IA y su posible abuso, la protección de datos y el control de los proveedores de software.

Este fin de semana, 22 órganos judiciales y agencias de inteligencia de 18 países (incluida Francia) firmaron un acuerdo internacional sobre seguridad de la IA. Su objetivo es hacer que las últimas versiones de la tecnología sean “seguras por diseño”, y llega unos meses después de que el Parlamento Europeo validara la Ley de IA en junio. Este texto, aún en discusión, prohíbe ciertas tecnologías de IA, incluida la vigilancia biométrica y la previsión policial para la prevención del delito, y clasifica los sistemas de IA que podrían tener un impacto significativo en la salud como sistemas de alto riesgo. , seguridad, derechos o elecciones. “Los sistemas de IA pueden aportar muchos beneficios a la sociedad. Pero para que las posibilidades que ofrece la IA se realicen plenamente, es necesario desarrollarla, implementarla y operarla de manera segura y responsable”, afirma el acuerdo. Considera que, dado el rápido ritmo de desarrollo de la IA, la cuestión de la seguridad no debería quedar en segundo plano, sino que debería considerarse como un requisito fundamental del ciclo de vida de estos sistemas. “Están expuestos a nuevas vulnerabilidades de seguridad que deben tenerse en cuenta del mismo modo que las amenazas tradicionales a la ciberseguridad”, afirma el informe.

“Cuando el ritmo de desarrollo es alto, como es el caso de la IA, la seguridad a menudo puede pasar a un segundo plano. Con una diferencia de seguridad específica de la IA: la existencia de un fenómeno llamado “aprendizaje automático adversario”. Descrito como crítico en el informe, el ML adversarial se define como la explotación estratégica de vulnerabilidades fundamentales inherentes a los componentes del ML. Al manipular estos elementos, los adversarios pueden potencialmente alterar o engañar a los sistemas de IA, lo que da como resultado resultados erróneos o una funcionalidad comprometida. Además de la propuesta de regulación europea de la IA, en los Estados Unidos, el presidente Joe Biden firmó una orden ejecutiva en octubre para regular el desarrollo de la IA, exigiendo a los desarrolladores de potentes modelos de IA que compartan con el gobierno los hallazgos de seguridad y la información crítica.

Índice
  1. China, excluida del acuerdo
  2. La IA sigue siendo un campo minado legal

China, excluida del acuerdo

Si bien es uno de los motores del desarrollo de la IA y es objeto de varias sanciones comerciales por parte de Estados Unidos con vistas a limitar su acceso al silicio de alta potencia, necesario para el desarrollo de la IA, China está ausente del acuerdo. . En un discurso el domingo en un evento organizado por la Cámara de Comercio de Taiwán, Mark Liu, presidente de TSMC, dijo que la decisión de Estados Unidos de excluir a China conduciría a una desaceleración global de la innovación y a una fragmentación de la globalización.

La IA sigue siendo un campo minado legal

Aunque no es vinculante, el acuerdo ofrece principalmente recomendaciones generales y no aborda cuestiones complejas sobre las aplicaciones apropiadas de la IA o los métodos de recopilación de datos para los LLM. No aborda los litigios civiles en curso en los Estados Unidos sobre cómo los sistemas ingieren datos para desarrollar sus grandes modelos de lenguaje y si estas prácticas cumplen con las leyes de derechos humanos. autor.

En los Estados Unidos, varios autores han presentado demandas contra OpenAI y Microsoft por infracción de derechos de autor y propiedad intelectual, alegando que sus trabajos creativos se utilizaron sin su consentimiento en la formación de ChatGPT de OpenAI. La denuncia destaca las crecientes preocupaciones sobre el impacto de la IA en las industrias creativas y periodísticas tradicionales. Según K&L Gates, OpenAI y otros acusados ​​en estos casos afirman falta de jurisdicción y utilizan la doctrina del uso justo para defenderse. Si a esto le sumamos el escepticismo de los tribunales en los primeros casos, podemos decir que el futuro de los litigios sobre IA es “incierto”.

Si quieres conocer otros artículos parecidos a Francia y otros estados firman un acuerdo sobre seguridad de la IA puedes visitar la categoría Otros.

Otras noticias que te pueden interesar

Subir
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad