Mientras que la UE está acostumbrada a regular (véase la reciente aprobación de la AI Act), Estados Unidos prefiere dejar que el mercado se regule a sí mismo. Y es lo que prima en la creación del AI Safety Institute Consortium (AISIC). Esta estructura, apoyada por el gobierno americano, será la encargada de establecer salvaguardas para el uso y desarrollo de la IA. Anunciado a finales de la semana pasada por el Departamento de Comercio, el consorcio forma parte del NIST (Instituto Nacional de Estándares y Tecnología y Incluye más de 200 empresas y organizacionesEntre sus miembros se incluyen Amazon.com, la Universidad Carnegie Mellon, la Universidad de Duke, la Free Software Foundation y Visa, así como varios de los principales desarrolladores de herramientas de inteligencia artificial, incluidos Apple, Google, Microsoft y OpenAI.

El consorcio “garantizará que Estados Unidos lidere el camino” en el establecimiento de estándares de seguridad de IA, al tiempo que fomenta la innovación, dijo la secretaria de Comercio estadounidense, Gina Raimondo, en un comunicado. “Juntos, podemos abordar estos desafíos para desarrollar las medidas y estándares que necesitamos para mantener la ventaja competitiva de Estados Unidos y desarrollar la IA de manera responsable”, agregó.

Índice
  1. Regulación necesaria sobre la IA
  2. Varios textos en preparación
  3. Resurge la lucha entre pro y anti regulación

Regulación necesaria sobre la IA

La semana pasada, además de anunciar el consorcio, la administración Biden nombró a Elizabeth Kelly, ex asesora de política económica del presidente, como directora del Instituto de Seguridad de Inteligencia Artificial de Estados Unidos (USAISI), una organización dentro del NIST que albergará a AISIC. Todavía no está claro si el trabajo de la coalición dará como resultado regulaciones o leyes futuras. Aunque el presidente Joe Biden emitió una orden ejecutiva sobre seguridad de la IA el 30 de octubre de 2023, aún no se ha determinado el cronograma del trabajo del consorcio.

Además, si Joe Biden pierde las elecciones presidenciales a finales de este año, este impulso a la regulación de la IA podría disminuir. Sin embargo, la reciente orden ejecutiva de Biden sugiere que es necesaria cierta regulación. “Aprovechar la IA para el bien y obtener sus innumerables beneficios requiere mitigar sus considerables riesgos”, afirma la orden. “Esta tarea requiere un esfuerzo de toda la sociedad que incluya al gobierno, el sector privado, la academia y la sociedad civil”.

Varios textos en preparación

Entre otras cosas, el plan de Biden es exigir a los desarrolladores de sistemas de IA que compartan los resultados de sus pruebas de seguridad con el gobierno de Estados Unidos; desarrollar estándares, herramientas y pruebas para garantizar que los sistemas de IA sean seguros y confiables; proteger a los residentes estadounidenses del fraude y el engaño relacionados con la IA; y establecer un programa de ciberseguridad para desarrollar herramientas de IA que puedan encontrar y reparar vulnerabilidades en software crítico.

El Consorcio del Instituto de Seguridad de la IA está buscando la aportación de sus miembros en varias de estas áreas, incluido el desarrollo de herramientas de prueba y estándares de la industria para el despliegue seguro de la IA. Mientras tanto, durante la sesión 2023-24, los legisladores han presentado docenas de proyectos de ley relacionados con la IA en el Congreso de Estados Unidos. La Ley de Recompensas por Errores de Inteligencia Artificial podría exigir al Departamento de Defensa de Estados Unidos que cree un programa de recompensas por errores para las herramientas de IA que utiliza. La Ley de Bloqueo de Lanzamientos Nucleares por Inteligencia Artificial Autónoma podría prohibir el uso de fondos federales para sistemas de armas autónomas que puedan lanzar armas nucleares sin una intervención humana significativa. Pero en este año electoral en Estados Unidos, es difícil conseguir que los proyectos de ley pasen por el Congreso.

Resurge la lucha entre pro y anti regulación

Varias personalidades prominentes, entre ellas Elon Musk y Stephen Hawking, han expresado su preocupación por la IA, incluida la amenaza lejana de que esta acabe dominando el mundo. A corto plazo, a algunos les preocupa que la IA se utilice para crear armas biológicas, ciberataques o campañas de desinformación. Pero otros, como el capitalista de riesgo Marc Andreessen, creen que muchas de las preocupaciones sobre la IA son exageradas. En una extensa publicación en su blog del 6 de junio de 2023, afirma que la IA salvará al mundo. Aboga por eliminar “todas las barreras regulatorias” al desarrollo de la IA de código abierto, destacando los beneficios que obtendrán los estudiantes que aprendan a construir sistemas de IA.

Por el contrario, critica a los oportunistas que buscan sacar provecho de la regulación creando un “pánico moral” sobre los peligros de la IA para imponer nuevas restricciones, regulaciones y leyes. Los ejecutivos de las empresas de IA existentes “pueden ganar más dinero si se erigen barreras regulatorias para formar un cártel de vendedores de IA aprobados por el gobierno y protegidos de la competencia de nuevas empresas emergentes y software de código abierto”, dijo Andreessen.