Si bien Estados Unidos y China son feroces rivales comerciales en tecnología, parecen compartir un nuevo punto en común: preocupaciones sobre la responsabilidad y el posible uso indebido de la IA. El martes, los gobiernos de ambos países anunciaron regulaciones relacionadas con el desarrollo de la IA. La Administración Nacional de Telecomunicaciones e Información (NTIA), una rama del Departamento de Comercio de EE. UU., ha lanzado un convocatoria pública oficial de contribuciones sobre las políticas que deberían dar forma a un ecosistema de responsabilidad de la IA. Estas incluyen preguntas sobre el acceso a los datos, la medición de la responsabilidad y cómo los enfoques de la IA pueden variar en diferentes industrias, como el empleo o la atención médica. .
Los comentarios escritos en respuesta a la solicitud deben entregarse a la NTIA antes del 10 de junio de 2023, que es 60 días a partir de la fecha de publicación en el Registro Federal. La noticia llega el mismo día en que la Administración del Ciberespacio de China (CAC) dio a conocer una serie de medidas propuestas para gestionar los servicios de IA generativa, incluido responsabilizar a los proveedores de la validez de los datos utilizados para entrenar las herramientas de IA generativa. El CAC dijo que los proveedores deberían ser responsables de la validez de los datos utilizados para entrenar herramientas de IA y que se deberían tomar medidas para evitar la discriminación al diseñar algoritmos y entrenar conjuntos de datos. según un artículo de Reuters. Las empresas también tendrán que presentar evaluaciones de seguridad al gobierno antes de lanzar al público sus herramientas de inteligencia artificial.
Regulación de la IA versus innovación
Si sus plataformas generan contenido inapropiado, las empresas tendrán que actualizar la tecnología en un plazo de tres meses para evitar que se vuelva a generar contenido similar, según el borrador de las reglas. El incumplimiento de estas normas dará lugar a que los proveedores sean multados, sus servicios suspendidos o sujetos a una investigación penal. Cualquier contenido desarrollado por IA generativa debe ser coherente con los valores socialistas fundamentales del país, dijo la CAC. Los gigantes tecnológicos chinos han logrado grandes avances en el desarrollo de la IA. El anuncio del CAC se hizo el mismo día que Alibaba Cloud anunció un modelo de lenguaje ampliado, llamado Tongyi Qianwenel cual desplegará como una interfaz tipo ChatGPT para todas sus aplicaciones comerciales. El mes pasado, otro gigante chino de servicios de Internet e inteligencia artificial, Baidu, anunció una variante en idioma chino de ChatGPT, el bot Ernie.
Si bien el gobierno chino ha establecido un conjunto claro de directrices regulatorias, otros gobiernos de todo el mundo están adoptando un enfoque diferente. El mes pasado, el gobierno del Reino Unido dijo que para "evitar una legislación excesivamente onerosa que pudiera sofocar la innovación", había decidido no entregar la responsabilidad de la gobernanza de la IA a un solo nuevo regulador, y en lugar de ello pidió a los reguladores existentes que idearan sus propios enfoques que mejor funcionen. adaptarse a cómo se utiliza la IA en sus sectores. Sin embargo, esta orientación fue criticado por algunosLos expertos de la industria argumentan que es posible que los marcos existentes no puedan regular eficazmente la IA debido a la naturaleza compleja y de múltiples capas de algunas herramientas de IA, lo que significa que la confusión entre diferentes regímenes será inevitable.
Por otra parte, el Regulador de Datos del Reino Unido ha emitido una advertencia a las empresas de tecnología con respecto a la protección de la información personal al desarrollar e implementar IA generativa como LLM, mientras El regulador italiano de privacidad de datos ha prohibido ChatGPT debido a acusaciones de violaciones de la privacidad. un grupo de 1.100 líderes tecnológicos y científicos también pidieron una pausa de seis meses en el desarrollo de sistemas más potentes que el modelo GPT-4 lanzado recientemente por OpenAI.
El error, base del aprendizaje.
Cuando se trata de innovación tecnológica y regulación, la mayoría de los gobiernos y legisladores generalmente siguen un camino natural, dijo Frank Buytendijk, analista de Gartner. "Cuando una nueva tecnología llega al mercado, aprendemos a utilizarla responsablemente cometiendo errores", afirmó. "Eso es lo que estamos haciendo ahora con la IA". Según este analista, comienza a surgir la regulación, que permite a los desarrolladores, usuarios y sistemas jurídicos aprender el uso responsable a través de la interpretación de la ley y la jurisprudencia, seguida de la fase final, donde se integran tecnologías que integran el uso responsable. "Estamos aprendiendo sobre el uso responsable a través de estas mejores prácticas integradas, por lo que es un proceso", dijo Buytendijk.
Otras noticias que te pueden interesar