Los europeos que han aprobado la Ley de IA no son los únicos que quieren enmarcar y medir los riesgos asociados a la inteligencia artificial. Como parte de un nuevo esfuerzo para promover la regulación de la IA, los miembros de la Cámara de Representantes de Estados Unidos han formado un grupo de trabajo bipartidista para estudiar la legislación que aborde las crecientes preocupaciones y temores relacionados con la adopción de la IA. “El grupo de trabajo buscará producir un informe integral que incluya principios rectores, recomendaciones prospectivas y propuestas de políticas bipartidistas desarrolladas en consulta con los comités pertinentes”, anotado El comunicado de prensa que anuncia la creación del grupo de trabajo explorará “qué salvaguardas podrían ser apropiadas para proteger a la nación de las amenazas actuales y emergentes”.
Según Charlie Dai, vicepresidente y analista principal de Forrester, una estrategia tecnológica responsable y ética es fundamental para obtener beneficios a largo plazo de la IA. “Los posibles esfuerzos legislativos impulsarán a las empresas y a los proveedores de tecnología a reequilibrar las prioridades de inversión en IA, lo que puede ralentizar el ritmo de la innovación desde una perspectiva empresarial a corto plazo, pero hará avanzar significativamente los avances en materia de seguridad, privacidad, ética y sostenibilidad de la IA, que serán fundamentales para la confianza pública en la IA a largo plazo”. Según Akshara Bassi, analista principal de Counterpoint Research, “la regulación de la IA entrará en juego cuando se convierta en parte de un proceso activo de toma de decisiones. Hasta ahora, seguimos utilizando la inteligencia basada en reglas para complementar la toma de decisiones”. A medida que la IA evolucione y se vuelva más sofisticada, la regulación ayudará a estructurar los modelos de IA y a delinear claramente los límites, incluso en torno al intercambio de datos, la privacidad y los derechos de autor”.
Una falta de regulación que puede resultar contraproducente
Estados Unidos ha tomado varias medidas para desarrollar regulaciones que permitan aprovechar la IA para el crecimiento económico y, al mismo tiempo, abordar las preocupaciones sobre la adopción de la IA. Por ejemplo, la Comisión Federal de Comunicaciones declaró ilegales las voces generadas por IA a principios de este mes. Recientemente, el gobierno estadounidense anunció la creación del Instituto de Seguridad de la IA de Estados Unidos (AISI, por sus siglas en inglés) bajo el Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) para aprovechar el potencial de la IA y mitigar sus riesgos. Varias empresas tecnológicas importantes, entre ellas OpenAI, Meta, Google, Microsoft, Amazon, Intel y Nvidia, se han unido al consorcio para garantizar el desarrollo seguro de la IA. A pesar de esto, la falta de regulaciones claras y bien definidas tiene el potencial de afectar el crecimiento de la IA en el país. Las demoras en la redacción de un conjunto integral de leyes pueden disuadir a las empresas de implementar la tecnología para hacer crecer sus negocios.
“Solo en 2023, se presentaron 190 proyectos de ley estatales para regular la IA, y 14 se convirtieron en ley. A nivel federal, la Comisión Federal de Comercio (FTC) ha comenzado a hacer cumplir las leyes existentes con nuevos poderes a partir de órdenes ejecutivas y un mayor escrutinio por parte de los líderes de la FTC. Esto podría tener un efecto paralizante en la innovación y la estrategia de IA de las empresas”. según una publicación reciente del blog por Michele Goetz, analista principal, y Alla Valente, analista principal de Forrester. Recientemente, la Unión Europea ha sido la primera gran potencia Introducir leyes que regulen el uso de la IAVarios países, entre ellos el Reino Unido y Australia, están trabajando para desarrollar regulaciones y políticas que les permitan utilizar la IA con confianza para hacer crecer sus economías y, al mismo tiempo, protegerse de posibles riesgos. El lanzamiento de ChatGPT de OpenAI en noviembre de 2022 supuso un cambio radical y condujo a un aumento significativo de la adopción de la tecnología. Al mismo tiempo, planteó varias preocupaciones sobre la ciberseguridad y la privacidad de los datos, lo que impulsó a los países a acelerar la regulación de la IA.
Otras noticias que te pueden interesar