China y Estados Unidos han acordado colaborar con al menos otros 25 países para mitigar los riesgos derivados del avance de la IA. Los dos países, así como varios otros, incluidos Alemania, Francia, India y la UE, firmaron un acuerdo, llamado " declaración de bletchley ”, en la Cumbre de Seguridad de la IA del Reino Unido, para establecer una directriz común para supervisar la evolución de la IA y garantizar que la tecnología avance de forma segura. El acuerdo lleva el nombre de Bletchley Park, ubicado en Milton Keynes, Inglaterra, el sitio que albergó al equipo liderado por Alan Turing para descifrar los códigos de la máquina Enigma durante la Segunda Guerra Mundial.

La cumbre durante la cual se firmó el acuerdo tuvo lugar en presencia de varios líderes políticos y directores ejecutivos de empresas tecnológicas, entre ellos Elon Musk y el director ejecutivo de OpenAI, Sam Altman. La Declaración de Bletchley pide a los países miembros signatarios que adopten dos enfoques amplios para controlar los riesgos de guerra nuclear, química o biológica derivados de la IA. “Estamos particularmente preocupados por estos riesgos en áreas como la ciberseguridad y la biotecnología, así como también por aquellos lugares donde los sistemas de inteligencia artificial más avanzados pueden amplificar riesgos como la desinformación. Las capacidades más importantes de estos modelos de IA pueden provocar daños graves o incluso catastróficos, ya sean deliberados o no”, destaca el acuerdo.

Índice
  1. Dos enfoques para frenar los riesgos relacionados con la IA
  2. Estados Unidos ha tomado la iniciativa en la regulación de la IA

Dos enfoques para frenar los riesgos relacionados con la IA

El primer enfoque es identificar los riesgos de seguridad de la IA que plantean preocupaciones comunes y luego comprenderlos con datos científicos y fácticos. Una vez que se logre este entendimiento, los países miembros evaluarán la evolución de las capacidades de IA y medirán su impacto en la sociedad en su conjunto, según el acuerdo.

El segundo enfoque es desarrollar políticas basadas en riesgos en los países miembros para garantizar la seguridad. Tenga en cuenta que estas políticas pueden variar según las circunstancias nacionales y los marcos legales aplicables. "Este segundo enfoque incluye, además de una mayor transparencia por parte de los actores privados que desarrollan capacidades de IA de vanguardia, medidas de evaluación adecuadas, herramientas para probar la seguridad, así como el desarrollo de capacidades científicas e investigaciones relevantes en el sector público", se lee en el acuerdo. .

Estados Unidos ha tomado la iniciativa en la regulación de la IA

A principios de mayo, cientos de ejecutivos, académicos y otras luminarias de la industria tecnológica firmó una carta abierta advirtiendo que la evolución de la IA podría llevar a su extinción y afirmando que controlar esta tecnología debería ser una máxima prioridad global.

Esta semana, OpenAI, detrás de ChatGPT, lo dijo estaba preparando un equipo para evitar que lo que la compañía llama modelos de IA de última generación desencadenen una guerra nuclear. y otras amenazas. La administración del presidente estadounidense Joe Biden también emitió una orden ejecutiva esta semana. Hace mucho tiempo, que establece reglas claras y medidas de control para garantizar que se aproveche la IA, al tiempo que se deja espacio para su desarrollo.