Después de enfrentar críticas a los esfuerzos por dominar la inteligencia artificial generativa (genAI) por ser demasiado vagas e ineficaces, se espera que la administración Biden anuncie otras reglas más restrictivas para el uso de esta tecnología por parte de los funcionarios federales, por lo que quedará bajo el control del gobierno. La orden ejecutiva, que se espera que se dé a conocer el lunes, también cambiaría los estándares de inmigración para permitir una mayor afluencia de trabajadores tecnológicos y así acelerar los esfuerzos de desarrollo de Estados Unidos. El martes por la noche, la Casa Blanca envió invitaciones para un evento titulado “Inteligencia artificial segura y confiable”, organizado por el presidente Joseph Biden el lunes, según El Correo de Washington.
La IA generativa, que avanza a una velocidad vertiginosa y causa preocupación entre los expertos de la industria, llevó a Joe Biden a publicar unas “orientaciones” en mayo pasado. La vicepresidenta Kamala Harris también se reunió con los directores ejecutivos de Google, Microsoft y OpenAI, el creador del popular chatbot ChatGPT, para discutir posibles problemas con la IA generativa, incluida la seguridad y la protección. privado y de control. Incluso antes del lanzamiento de ChatGPT en noviembre de 2022, la administración había presentado un proyecto de “ Declaración de derechos de la IA » así como un marco de gestión de riesgos de IA. También propuso una hoja de ruta para crear un recurso nacional de investigación sobre IA.
Un decreto para reforzar los recursos en ciberseguridad
Se espera que la orden ejecutiva fortalezca las defensas nacionales de ciberseguridad al exigir que los grandes modelos de lenguaje (LLM, por sus siglas en inglés), la base de la IA generativa, se sometan a una evaluación antes de que puedan ser utilizados por las agencias gubernamentales de Estados Unidos. Estas agencias incluyen el Departamento de Defensa, el Departamento de Energía y agencias de inteligencia, según The Washington Post. Estas normas reforzarán el compromiso voluntario asumido por 15 empresas de desarrollo de IA de hacer lo necesario para garantizar una evaluación de los sistemas de IA generativa que sea compatible con un uso responsable. “Me temo que no tenemos un muy buen historial en esta área; El ejemplo de Facebook es prueba de ello”, afirmó Tom Siebel, director ejecutivo del proveedor de aplicaciones empresariales de inteligencia artificial. IA C3 y fundador de Siebel Systems, ante una audiencia en la conferencia EmTech del MIT en mayo pasado. “Me gustaría creer que la autorregulación funcionaría, pero el poder corrompe y el poder absoluto corrompe totalmente”.
Aunque la IA generativa ofrece importantes beneficios a través de su capacidad para automatizar tareas y crear sofisticadas respuestas de texto, imágenes, vídeos e incluso códigos de software, la tecnología también es conocida por sus errores, una anomalía conocida como el nombre de alucinaciones. “Las alucinaciones ocurren porque los LLM, en su forma más clásica, no tienen una representación interna del mundo”, dice Jonathan Siddharth, director ejecutivo de Turing, una empresa de Palo Alto, California, que utiliza IA. para encontrar, contratar e incorporar ingenieros de software remotos. “No existe ningún concepto de hecho. Predicen la siguiente palabra basándose en lo que han visto hasta ahora: es una estimación estadística”.
Un riesgo de exposición de datos sensibles
La IA generativa también puede exponer inesperadamente datos confidenciales o de identificación personal. En el nivel más básico, las herramientas pueden recopilar y analizar cantidades masivas de datos de Internet, empresas e incluso fuentes gubernamentales para ofrecer contenido más preciso y profundo a los usuarios. La desventaja es que la información recopilada por la IA no necesariamente se almacena de forma segura. Las aplicaciones y redes de IA pueden hacer que esta información sensible sea vulnerable a la explotación de datos por parte de terceros. Los teléfonos inteligentes y los vehículos autónomos, por ejemplo, rastrean la ubicación y los hábitos de conducción de los usuarios. Si bien se supone que este software de seguimiento ayuda a la tecnología a comprender mejor los hábitos para atender a los usuarios de manera más efectiva, también recopila información personal como parte de grandes conjuntos de datos utilizados para entrenar modelos de IA.
Para las empresas que desarrollan IA, la orden ejecutiva podría requerir una revisión de cómo abordan sus prácticas, según Adnan Masood, arquitecto jefe de IA en UST, una empresa de servicios de transformación digital. Las nuevas normas también pueden provocar inicialmente un aumento de los costes operativos. "Sin embargo, la alineación con las normas nacionales también podría agilizar los procesos federales de adquisición de sus productos y promover la confianza entre los consumidores privados", afirma Adnan Masood. "En última instancia, si bien la regulación es necesaria para mitigar los riesgos de la IA, debe equilibrarse delicadamente con el mantenimiento de un entorno propicio para la innovación". Continúa: “Si inclinamos demasiado la balanza hacia una supervisión restrictiva, particularmente en el área de investigación, desarrollo e iniciativas de código abierto, corremos el riesgo de sofocar la innovación y ceder terreno a más jurisdicciones. indulgente a escala global”, antes de agregar que “la clave está en elaborar regulaciones que protejan los intereses públicos y nacionales y al mismo tiempo alimenten los motores de la creatividad y el progreso en el sector de la IA”.
Regulaciones para combatir los prejuicios arraigados
Adnan Masood dice que las próximas regulaciones de la Casa Blanca "llegan muy tarde y este es un buen paso" [à] "Un momento crítico en el enfoque del gobierno de EE. UU. para aprovechar y contener la tecnología de IA". Declaró: “Tengo reservas acerca de ampliar el alcance de la regulación a las áreas de investigación y desarrollo. […] La naturaleza de la investigación en IA requiere un nivel de apertura y escrutinio colectivo que puede verse sofocado por una regulación excesiva. En particular, me opongo a cualquier limitación que pueda obstaculizar las iniciativas de IA de código abierto, que han sido la fuerza impulsora detrás de la mayor parte de la innovación en esta área. Estas plataformas colaborativas permiten identificar y corregir rápidamente fallas en los modelos de IA, fortaleciendo así su confiabilidad y seguridad”.
Esta tecnología también es vulnerable a sesgos incorporados, como las aplicaciones de contratación asistidas por inteligencia artificial que tienden a elegir a hombres sobre mujeres, o candidatos blancos sobre minorías. Y a medida que las herramientas de IA generativa mejoren en la imitación del lenguaje natural, las imágenes y los vídeos, pronto será imposible distinguir los resultados falsos de los reales; esto incentiva a las empresas a establecer “barandillas” contra los peores resultados, ya sean esfuerzos accidentales o intencionales de malos actores. Los esfuerzos de Estados Unidos para controlar la IA siguen a los esfuerzos de los países europeos para garantizar que la tecnología no genere contenido que viole las leyes de la UE, incluida la pornografía infantil o, en algunos países de la UE, la negación del Holocausto. Italia ha prohibido por completo el desarrollo posterior de ChatGPT por razones de privacidad, luego de que la aplicación de procesamiento de lenguaje natural sufriera una violación de datos que involucra conversaciones de usuarios e información de pago.
La UE, pionera en regulación
El Reglamento de Inteligencia Artificial (Ley de IA) de la Unión Europea es el primero de su tipo adoptado por un grupo de países occidentales. La legislación propuesta se basa en gran medida en normas existentes, como el Reglamento General de Protección de Datos (GDPR), la Ley de Servicios Digitales y la Ley de Mercados Digitales. La ley de IA fue propuesta originalmente por la Comisión Europea en abril de 2021. Los estados y municipios están considerando imponer sus propias restricciones al uso de robots basados en IA para buscar, seleccionar, entrevistar y contratar solicitantes de empleo, debido a preocupaciones de privacidad y prejuicios. . Algunos estados ya han aprobado leyes. La Casa Blanca también debería apoyarse en el Instituto Nacional de Estándares y Tecnología para fortalecer las pautas de la industria para probar y evaluar sistemas de IA, disposiciones que se basarían en los compromisos voluntarios de seguridad y fomento de la confianza que la administración Biden obtuvo de 15 grandes empresas tecnológicas este año en términos de IA.
La iniciativa de Joe Biden es aún más importante a medida que la IA generativa continúa creciendo, lo que resulta en capacidades sin precedentes para la creación de contenido, deepfakes y, potencialmente, nuevas formas de ciberamenazas. , dice Adnan Masood. “Este panorama muestra claramente que el papel del gobierno no es sólo el de regulador, sino también el de facilitador y consumidor de tecnología de IA”, añade. "Al exigir evaluaciones federales de la IA y enfatizar su papel en la ciberseguridad, el gobierno de EE. UU. reconoce la doble naturaleza de la IA, como activo estratégico y como riesgo potencial". Adnan Masood dijo que es un firme defensor de un enfoque matizado de la regulación de la IA, ya que es esencial supervisar el despliegue de productos de IA para garantizar que cumplan con los estándares éticos y de seguridad. "Por ejemplo, los modelos avanzados de IA utilizados en la atención sanitaria o en vehículos autónomos deben estar sujetos a pruebas y controles de cumplimiento rigurosos para proteger el bienestar del público", concluye.
Otras noticias que te pueden interesar