Desde Google hasta Microsoft, hay innumerables editores que configuran sus programas de recompensa para la búsqueda de errores y vulnerabilidades. Lo último en lanzarse, Abierto AI en el origen de varias IA generativas, incluido el agente conversacional Chat-GPT basado en el modelo de lenguaje grande (LLM) de GPT o el generador de imágenes Dall-E. El editor, que indica - se habría sospechado - que invierte "enormemente" en investigación e ingeniería para garantizar que sus sistemas de IA sean seguros, ha abierto así una recompensa por errores basada en la plataforma Bugcrowd.

“Como ocurre con cualquier tecnología compleja, entendemos que pueden surgir vulnerabilidades y fallas. Creemos que la transparencia y la colaboración son fundamentales para afrontar esta realidad. "Es por eso que invitamos a la comunidad global de investigadores de seguridad, hackers éticos y entusiastas de la tecnología a ayudarnos a identificar y corregir vulnerabilidades en nuestros sistemas". explicar OpenAI. El alcance de las vulnerabilidades encontradas se refiere, en particular, a las API, ChatGPT, información confidencial expuesta a través de terceros (Google Workspace, Trello, Zendesk, Tableau, etc.)...

De $200 a $20.000 en bonos

Las recompensas pagadas varían dependiendo de los impactos y problemas reportados, desde $200 (baja gravedad) hasta $20,000 por “descubrimientos excepcionales”. Hasta la fecha, 14 vulnerabilidades descubiertas ya han sido objeto de pago por un importe medio pagado de casi 1.300 dólares y un tiempo de respuesta total de 3 horas. Como parte de su programa de recompensas por errores, OpenAI ha implementado reglas que incluyen mantener confidenciales los detalles de la vulnerabilidad hasta que su equipo autorice la publicación. El objetivo es otorgar autorización para la divulgación dentro de los 90 días siguientes a la recepción del informe. Un plazo comúnmente aplicado por otras plataformas y proveedores.