“Anunciamos convocatoria abierta para la Red Teaming Network deAbiertoAI e invitar a expertos en el dominio interesados ​​en mejorar la seguridad de los modelos OpenAI a unirse a nuestros esfuerzos. Buscamos expertos de diferentes campos para colaborar con nosotros en la evaluación rigurosa y el equipo rojo de nuestros modelos de IA » indica la firma detrás de ChatGPT en un comunicado de prensa. Ella explica que en los últimos años, sus esfuerzos de equipo rojo han pasado de centrarse en pruebas internas adversas en OpenAI a la colaboración con un grupo de expertos externos. Este trabajo se centró especialmente en modelos como DALL-E 2 y GPT-4.

Hoy, la empresa lanza un llamamiento a una colaboración más amplia para “hacer [ses] modelos más seguros. Esto incluye la colaboración con expertos, institutos de investigación y organizaciones de la sociedad civil; trabajo que complemente las prácticas de gobernanza especificadas externamente, como las auditorías de terceros. Por lo tanto, Red Teaming Network ayudará a informar los esfuerzos de evaluación y mitigación de riesgos de manera más amplia, "en lugar de compromisos únicos y procesos de selección antes de implementaciones importantes de modelos", especifica OpenAI. Se recurrirá a los miembros de la red en función de su experiencia para ayudar al equipo de Red en diferentes etapas del ciclo de desarrollo de modelos y productos. Sin embargo, no todos los miembros estarán involucrados en todos los modelos o productos, y se determinará la cantidad de tiempo que pasarán con cada miembro, que podría ser entre 5 y 10 horas por año.

Índice
  1. Se valora un cierto número de habilidades técnicas.
  2. Una contribución pagada

Se valora un cierto número de habilidades técnicas.

Fuera de las campañas del equipo rojo encargadas por OpenAI, los miembros tendrán la oportunidad de interactuar con las prácticas y resultados generales de la red. Esto último complementa así otras formas de colaboración emprendidas por la empresa en materia de seguridad de la IA, incluido su programa de acceso para investigadores y evaluaciones de código abierto. Al promocionar los méritos de esta red, OpenAI asegura que los miembros participarán activamente en "el desarrollo de tecnologías y políticas de IA más seguras". En cuanto a las competencias técnicas buscadas, la empresa es bastante vaga y prefiere hablar de diversidad.

“La evaluación de los sistemas de IA requiere comprender una amplia variedad de dominios, diversas perspectivas y experiencias vividas. Invitamos a expertos de todo el mundo a postularse y priorizar la diversidad geográfica y la variedad de campos en nuestro proceso de selección”. También se publica una lista no exhaustiva de temas que interesan a OpenAI e incluye: ciencias cognitivas, química, biología, física, informática, esteganografía, ciencias políticas, psicología, persuasión, economía, antropología, sociología, educación, derecho sanitario, seguridad infantil. , ciberseguridad, finanzas, desinformación, biometría, idiomas y lingüística. También se especifica que “no es necesaria experiencia previa con sistemas de inteligencia artificial o modelos de lenguaje, pero puede resultar útil”.

Una contribución pagada

Finalmente, obviamente se plantea la cuestión de la remuneración: “Todos los miembros de la red OpenAI Red Teaming serán remunerados por sus contribuciones cuando participen en un proyecto de equipo rojo”. Los miembros de la red estarán sujetos a acuerdos de confidencialidad (NDA) o confidencialidad por un período indefinido. Para organizar esta red Red Teaming, un espacio de aplicación se creó con una cierta cantidad de información obligatoria que se debía proporcionar, incluido el nivel de educación, las motivaciones, los idiomas hablados y la URL del perfil de Twitter.