Con el nombre de Safe Superintelligence, la ambición mostrada por la start-up creada por Ilya Sutskever, cofundador y ex científico jefe de OpenAIResulta que la cosa está bastante clara. El padre de ChatGPT, que no estaba muy de acuerdo con Sam Altman, a quien quería echar de la empresa, abandonó finalmente OpenAI el pasado mes de mayo. Mientras que Sam Altman está muy presente en los medios, Ilya Sutskever es el impulsor de los avances en el desarrollo de los LLM y su versión generativa ChatGPT. Cofundada con Daniel Levy, ex investigador de OpenAI, y Daniel Gross, ex socio de Y Combinator que dirigió los esfuerzos de inteligencia artificial de Apple y cofundó Ken Technologies, Safe Superintelligence pretende conciliar los avances en el campo de las redes neuronales sin oscurecer las cuestiones de control y ética. Este es el tema que llevó a Ilya Sutskever a cuestionar las orientaciones adoptadas por Sam Altman.

En entrevista con la agencia BloombergSutskever explicó que SSI “no hará nada más” que desarrollar una superinteligencia más segura regulando la salida de una red neuronal avanzada utilizando una segunda red neuronal menos avanzada. En una prueba realizada como parte del proyecto Superalignment de OpenAI, los investigadores demostraron cómo se puede utilizar el primer algoritmo GPT-2 de OpenAI para supervisar el algoritmo GPT-4, más nuevo y más capaz. “Nuestro modelo de negocio significa que la seguridad, la protección y el progreso están todos aislados de las presiones comerciales a corto plazo”, tuiteó Ilya Sutskever. “Así que podemos escalar con confianza”.

Todavía muy reservado, Ilya Sutskever anuncia muy sucintamente la creación de su start-up Safe Superintelligence.

Controlar las iniciativas de IA

Las preocupaciones de Ilya Sutskever no son tan distintas de los intentos de varios gobiernos y organizaciones (entre ellos Francia y el Parlamento Europeo) de lograr que las tecnologías de IA sean “seguras por diseño”, incluidas la vigilancia biométrica, el análisis predictivo aplicado a la prevención del delito, la asistencia en el diagnóstico médico y la manipulación electoral. Dado el rápido ritmo del desarrollo de la IA, la cuestión de la seguridad no debería ser una cuestión de último momento, sino que debería considerarse un requisito fundamental en el ciclo de vida de estos sistemas.

Muy cauteloso, Ilya Sutskever se negó a nombrar a los patrocinadores de Safe Superintelligence o revelar la cantidad recaudada.