De lo particular a lo general. Cada vez más países están implementando restricciones regulatorias a la IA y su versión generativa, pero en ciertas áreas como la ciberseguridad, existe cierta incertidumbre. En un informe del Instituto Aspen (think tank ejecutivo), la contribución de estas tecnologías a la protección de TI es innegable, pero al mismo tiempo los cibercriminales también las utilizan cada vez más.
Los autores afirman que corresponde a los reguladores y a los grupos industriales garantizar que los beneficios de la IA generativa no se vean socavados por su posible uso indebido. “Las medidas que adopten hoy los gobiernos, las empresas y las agencias determinarán mañana quiénes se beneficiarán más de esta capacidad emergente: los atacantes o los defensores”, afirma el informe.
Una respuesta mixta sobre el marco de la IA generativa
El enfoque regulatorio adoptado por grandes naciones como Estados Unidos, Reino Unido y Japón ha sido diferente, al igual que el de las Naciones Unidas y la Unión Europea. Según el Instituto Aspen, la ONU ha hecho hincapié en la seguridad, la rendición de cuentas y la transparencia, a través de varios subgrupos como la UNESCO, un grupo de trabajo interinstitucional sobre IA y un órgano asesor de alto nivel dependiente del secretario general. La Unión Europea ha sido particularmente agresiva en sus esfuerzos por proteger la privacidad y abordar las amenazas a la seguridad que plantea la IA generativa, con la Ley de IA, que se aprobará en diciembre de 2023. Contiene amplias disposiciones sobre transparencia, protección de datos y normas en torno a los datos de entrenamiento de modelos.
La inacción legislativa en Estados Unidos no ha impedido que la administración Biden emita una orden ejecutiva sobre IA, que proporciona “orientación y puntos de referencia para evaluar las capacidades de IA”, con especial atención a las características de IA que podrían causar daños. “CISA también ha emitido una guía no vinculante, en colaboración con los reguladores del Reino Unido”, señalan también los autores. “Japón, por el contrario, ofrece un ejemplo de un enfoque más flexible para la regulación de la IA desde una perspectiva de ciberseguridad, centrándose más en los canales de divulgación y los ciclos de retroalimentación de los desarrolladores que en reglas estrictas o evaluaciones de riesgos”, señaló el Instituto Aspen.
Evite perder la confianza en la IA
El informe también señala que el tiempo es esencial. Las violaciones de seguridad causadas por la IA generativa están erosionando la confianza pública, y la IA está adquiriendo nuevas capacidades que podrían usarse con fines nefastos casi todos los días. “A medida que esa confianza se erosiona, corremos el riesgo de perder la oportunidad de tener debates proactivos sobre los usos permisibles de la IA generativa en la detección de amenazas y de considerar los dilemas éticos que rodean las ciberdefensas autónomas a medida que el mercado avanza”, dice el informe.
Otras noticias que te pueden interesar