Si bien la Ley de IA debe ser sometida próximamente a la votación del Parlamento Europeo, durante la sesión del 12 al 15 de junio, AbiertoAI hizo un puchero. De hecho, su agente conversacional, ChatGPT, podría ser el objetivo de la próxima regulación. Sam Altman, fundador de OpenAI, compartió su visión de la IA para los próximos años en un entrada de blog publicada esta semana y también firmado por Greg Brockman (presidente y cofundador de OpenAI) e Ilya Sutskever (cofundador y científico jefe de la empresa). "Tal como están las cosas, es posible que dentro de los próximos diez años los sistemas de IA superen el nivel de habilidad de los expertos en la mayoría de los campos y sean tan productivos como una de las empresas más grandes de la actualidad", afirman.

Utilizando el término superinteligencia para referirse al desarrollo de soluciones como ChatGPT, indican que "en términos de posibles ventajas y desventajas, la superinteligencia será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado". Podemos tener un futuro mucho más próspero, pero debemos gestionar los riesgos para llegar allí. Ante la posibilidad de un riesgo existencial, no podemos simplemente reaccionar”. Los fundadores presentan así sus reflexiones iniciales centrándose en tres puntos clave. Y podemos decir que Sam Altman tiene sentido del tiempo. Ese mismo día aprovechó un viaje a Londres para difundir la IA. Durante su gira mundial, el empresario ya se reunió con varios líderes, entre ellos el presidente francés, Emmanuel Macron, el primer ministro polaco, Mateusz Morawiecki, y el primer ministro español, Pedro Sánchez.

Índice
  1. Un poco de regulación, pero no demasiada
  2. Un retroceso tras la amenaza de retirada del mercado europeo

Un poco de regulación, pero no demasiada

Por temor a una regulación demasiado exigente, Sam Altman se hizo eco de algunos de los argumentos conocidos y señaló que la gente tiene razón al preocuparse por los efectos de la IA, pero que sus beneficios potenciales, en su opinión, son mucho mayores. Al dar la bienvenida a las próximas regulaciones, dijo que quería ver "algo entre el enfoque tradicional europeo y el enfoque tradicional estadounidense". En definitiva: un poco de regulación pero no demasiada. Según él, demasiadas normas podrían perjudicar el desarrollo de la IA y su democratización entre las pequeñas empresas. "Por otro lado", dijo, "creo que la mayoría de la gente estaría de acuerdo en que si alguien descifra el código y construye una superinteligencia -independientemente de cómo se quiera definir esto- [alors] algunas reglas globales sobre esto son apropiadas... Me gustaría asegurarme de que tratemos esto al menos con la misma seriedad que tratamos, digamos, los materiales nucleares; para sistemas a gran escala que podrían dar lugar a la superinteligencia”.

Una frase que ha estado repitiendo una y otra vez desde que escribió estas palabras en una publicación de blog: “Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos. La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; La biología sintética es otro ejemplo. […] También necesitamos mitigar los riesgos de la tecnología actual de IA, pero la superinteligencia requerirá un procesamiento y una coordinación especiales”. Lo cierto es que este término repetido una y otra vez no cuenta con el apoyo de los expertos que lo ven como una finta retórica para minimizar la regulación.

Un retroceso tras la amenaza de retirada del mercado europeo

El director general de OpenAI declaró que tenía “muchas preocupaciones” respecto a la normativa europea sobre IA. Los términos de este marco regulatorio se han ampliado en los últimos meses para incluir nuevas obligaciones para los editores de “modelos básicos”: sistemas de inteligencia artificial a gran escala, por ejemplo los LLM que impulsan servicios como ChatGPT y DALL-E de OpenAI. Un detalle que es importante ya que sistemas como ChatGPT podrían ser designados como de “alto riesgo” según la legislación de la UE. Es evidente que la empresa debe cumplir una serie de requisitos de seguridad y transparencia. En respuesta, Sam Altman dijo al Financial Times: "Intentaremos cumplir, pero si no podemos cumplir, cesaremos nuestras operaciones".

Un punto que ya había mencionado en su blog: “Creemos que es importante permitir que las empresas y los proyectos de código abierto desarrollen modelos por debajo de un umbral de capacidad significativo, sin el tipo de regulación que describimos aquí (incluidos mecanismos vinculantes como la concesión de licencias). o auditorías) […] Por el contrario, los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta el momento, y debemos tener cuidado de no diluir el enfoque en ellos aplicando estándares similares a tecnologías muy por debajo de ese listón”. Por tanto, acecha la amenaza de retirar sus servicios del mercado europeo y se trata de una maniobra delicada que la UE apenas aprecia. Thierry Breton, Comisario Europeo de Mercado Interior, se apresuró a responder en twitter : “No tiene sentido intentar chantajear, afirmando que al desarrollar un marco claro, Europa está retrasando el despliegue de la IA generativa. De lo contrario ! Con el “Pacto sobre IA” que propuse, pretendemos ayudar a las empresas en su preparación para la ley europea sobre IA”. Un mensaje, por supuesto, escuchado por Sam Altman, quien dio marcha atrás y anunció que, por supuesto, la empresa no tenía planes de abandonar Europa. Una salida que llega en un momento en el que Google intenta recuperar el control. Prueba de ello es la visita de Sundar Pichai a Thierry Breton para hablar sobre la regulación en torno a la IA.