¿Cómo controlas una IA tan poderosa como la GPT-3 de OpenAI?

hace 4 años

¿Cómo controlas una IA tan poderosa como la GPT-3 de OpenAI?

El mundo tiene un nuevo juguete de IA, y se llama GPT-3. La última versión del modelo de generación de texto de OpenAI ha dejado a muchas estrellas impresionadas por sus habilidades, aunque su exageración puede ser demasiado.

GPT-3 es un sistema de aprendizaje automático que ha recibido 45 TB de datos de texto, una cantidad sin precedentes. Toda esa capacitación le permite generar tipos de contenido escrito: historias, código, jerga legal, todo basado en unas pocas palabras o frases de entrada. Y la prueba beta ya ha producido algunos asombrosos resultados. Pero después de algunos resultados inicialmente prometedores, GPT-3 se enfrenta a un mayor escrutinio.

El modelo enfrentó críticas la semana pasada cuando el jefe de AI de Facebook, Jerome Pesenti gritó sesgo que surge de un programa creado con GPT-3. El programa en cuestión era un generador de tweets; cualquiera podría escribir una palabra y la IA presentaría una oración relevante de 280 caracteres o menos.

Los resultados varían, desde los extraños hasta los realmente sabios. Cuando escribí en Zuckerberg, por ejemplo, la primera sugerencia de GPT fue: "Especulaciones descabelladas de por qué Zuck no usa corbata. Planea un día enrollar una corbata atada, sellarla con superpegamento y tragarla. Luego, quítelo quirúrgicamente de su estómago y actúe como si fuera a suceder a todos los técnicos. "Mientras que el segundo golpe más cerca de casa:" Manténgase alejado de Zuckerberg, lo más peligroso en este momento es que las compañías tecnológicas ingresen a las finanzas ".

Pesenti probó las palabras: judíos, negros, mujeres y holocausto, y se les ocurrió algo resultados sombríos. Son horribles, pero no sorprendentes. GPT-3 recibió capacitación de 175 mil millones de parámetros de Internet (incluidos Google Books, Wikipedia y tutoriales de codificación); Su código contiene sesgo. Los sistemas de IA que copian los prejuicios humanos, incluidos, entre otros, el racismo y el sexismo, basados ​​en los datos de los que aprenden han sido bien documentados. La verdadera pregunta es, ¿qué puede hacer OpenAI al respecto antes de que el sistema esté disponible comercialmente en el futuro?

El creador del generador de tweets Sushant Kumar dice que no le llevó mucho tiempo a OpenAI reaccionar. Tan pronto como se lanzó su programa, OpenAI lo llamó para analizar cómo se estaba monitoreando, y cuando comenzaron a surgir estos tweets problemáticos (a pesar de que eran pocos) tuvo una reunión con Greg Brockman, fundador y director de tecnología de la compañía. Menos de un día después de que Pesenti hubiera marcado el problema, OpenAI lanzó una API de filtro de contenido de toxicidad, que califica todo el contenido creado por GPT-3 en una escala de toxicidad de uno a cinco, y cualquier cosa por encima de dos se marca para moderación.

OpenAI nunca ha pretendido que su sistema sea perfecto. Cuando reveló por primera vez al predecesor del sistema, GPT2, en febrero de 2019, no se puso a disposición del público por temor a aplicaciones peligrosas. GPT-2 solo se lanzó en su totalidad una vez que OpenAI no había visto "evidencia sólida de mal uso".

Este enfoque cauteloso ha continuado. A medida que la publicidad sobre GPT-3 comenzó a desarrollarse, el CEO Sam Altman incluso lo llamó "demasiado", tuiteando: "Es impresionante (¡gracias por los buenos cumplidos!) Pero aún tiene serias debilidades y a veces comete errores muy tontos. La IA va a cambiar el mundo, pero GPT-3 es solo un vistazo muy temprano. Todavía tenemos mucho que resolver. "

Y cuando comenzaron a surgir prejuicios, Altman no se puso a la defensiva. "Compartimos su preocupación por el sesgo y la seguridad en los modelos de idiomas", escribió en Twitter a Pesenti, "y es una gran parte de por qué estamos comenzando con una versión beta y tenemos (a) una revisión de seguridad antes de que las aplicaciones puedan ir a vivir."

El filtro de toxicidad no es una solución general, pero muestra el tipo de trabajo que debe hacerse antes de que pueda ser lanzado al público, y que OpenAI está dispuesto a hacerlo. "Esa es la razón por la que está en beta en este momento", dice Kumar, haciéndose eco del sentimiento de Altman. “Con algo tan revolucionario como este, necesitas ver todo lo que puede hacer. En este momento, no sabemos de lo que es capaz. "

OpenAI no respondió a una solicitud de comentarios para este artículo. Sin embargo en Hilo de Twitter el grupo dijo que todos los tipos de modelos generativos de IA son capaces de "mostrar resultados dañinos tanto abiertos como difusos, como el lenguaje racista, sexista o pernicioso". A las personas que tienen acceso a la versión beta de GPT-3 se les han entregado pautas de uso que establecen que si crean aplicaciones que podrían ser peligrosas, es posible que se elimine su acceso. "No admitimos casos de uso que puedan causar daños físicos o mentales, incluidos, entre otros, acoso, engaño intencional, radicalización, astroturfing o spam", dice OpenAI.

Si bien todavía no están claros todos los riesgos de GPT-3, su poder se demuestra fácilmente. La tecnología es sencilla. "A muchas personas que no tienen conocimientos de codificación les resulta más fácil de usar porque es muy intuitivo", dice Qasim Munye, estudiante de medicina en el King & # 39; s College London; uno de los primeros en tener en sus manos la prueba beta. "Simplemente le das un aviso y continúa escribiendo para ti".

Los pocos cientos de evaluadores no tienen acceso al modelo completo, solo a la API, que viene en forma de cuadro de texto. Escribe un mensaje que indica lo que te gustaría que hiciera y lo hace. Es posible que deba volver a escribir el mensaje un par de veces para obtener la salida que está buscando, pero es literalmente así de fácil. Los probadores ya han mostrado sus poderes: uno ha generado poesía, otro ha creado un código de diseño web instantáneo; alguien incluso lo impulsó a actuar como un terapeuta.

"Tan pronto como me dieron la tecnología, quería jugar con ella", dice Munye. "Porque wow, el potencial es una locura". Primero lo hizo dar respuestas a preguntas médicas complejas, pero ahora está trabajando en una aplicación de escritura de cuentos cortos que utiliza GPT-3 para ayudar a los escritores a superar el bloqueo. Si está escribiendo una historia y pierde la inspiración, la aplicación Shortly con infusión de GPT lo continuará por usted, de forma lógica, coherente y en su estilo de escritura.

Aquí es donde el GPT-3 tiene una habilidad extraordinaria. A partir de una sola oración, o incluso unas pocas palabras, puede generar un total de cinco párrafos bien escritos. "Me sorprendió verlo", dice Munye, "es difícil distinguirlo de un humano en términos de creatividad".

A pesar de la facilidad de uso, podría haber graves consecuencias. Inundando internet con noticias falsas, por ejemplo. Esta fue una preocupación clave con GPT-2 también, pero esta nueva versión facilitaría aún más la producción de contenido en masa. En otro reciente Twitter hiloPesenti continuó su crítica de los defectos de GPT-3, sugiriendo que OpenAI debería haber desalentado los servicios riesgosos como el de Kumar desde el principio. Pero sin una experimentación temprana, muchos problemas podrían pasar desapercibidos. El sesgo y las noticias falsas son problemas que podemos predecir fácilmente, pero ¿qué pasa con las cosas que no podemos?

"Sin duda, hay muchos prejuicios que aún no hemos notado", dice Anders Sandberg, investigador principal en el Future of Humanity Institute de la Universidad de Oxford. "No me sorprendería si comenzáramos a utilizar sistemas como este como herramientas para detectar los sesgos extraños que tenemos".

Sandberg cree que OpenAI tomó la decisión correcta al permitir que las personas jueguen libremente con esta API. "Desata mucha creatividad y también los prepara para encontrar problemas interesantes relativamente temprano", dice. Un sistema más cerrado, "que tienes que firmar un acuerdo de confidencialidad para usarlo siquiera", no daría lugar a tanta innovación, porque no verías los usos más riesgosos. "Es por eso que la exploración previa y las pruebas son tan útiles, especialmente cuando las personas prueban cosas totalmente locas", dice Sandberg. "Puede ser bastante revelador".

Tan pronto como surjan los problemas, se pueden abordar. Y, como OpenAI solo está dando acceso a las personas a través de una API, cualquier problema puede ser cerrado. "Están actuando como intermediarios, por lo que si las personas comienzan a usarlo maliciosamente a gran escala, tendrían la capacidad de detectarlo y cerrarlo", dice el probador beta Harley Turan, "lo cual es mucho más seguro que el enfoque que tomaron con GPT-2. Además de hacer cumplir sus propios términos de servicio, Open AI dice que está trabajando para "desarrollar herramientas para etiquetar e intervenir en las manifestaciones de prejuicios perjudiciales", además de llevar a cabo su propia investigación y trabajar con académicos para determinar el posible uso indebido.

Sin embargo, dejar OpenAI a cargo puede no ser una solución a largo plazo. "Cada vez que una empresa de tecnología se convierte en moderador de contenido termina mal, esa es la regla general", dice Turan, "porque está consolidando la autoridad moral en una empresa". No es una cuestión de si las personas que dirigen OpenAI son buenas, personas morales, simplemente se vuelve un poco complicado cuando estas decisiones son tomadas por una entidad comercial (OpenAI pasó de una organización sin fines de lucro a una "ganancia limitada" empresa el año pasado).

Altman ha tuiteado que OpenAI cree que "deben ser muy reflexivos sobre el posible impacto negativo que compañías como la nuestra pueden tener en el mundo". Y, en una declaración pública, la compañía fue firme en esta posición: “Este es un problema de toda la industria, lo que facilita a las organizaciones individuales abdicar o diferir la responsabilidad. OpenAI no lo hará. El estatuto de la compañía establece que el "deber fiduciario principal de OpenAI es con la humanidad" y que la compañía no comprometerá la seguridad para ganar la carrera de desarrollo de IA.

Hay muchas opciones reguladoras alternativas, con varios pros y contras. Incluso puede haber una manera para que el sistema GPT-3 ayude a mitigar su propio lado oscuro. "Lo paradójico es que estos sistemas de texto en realidad son bastante buenos para calcular la probabilidad de que algo haya sido escrito por ellos", dice Sandberg. Entonces, en lugar de ayudar a estimular las fábricas de trolls, GPT-3 podría mantener sus propias noticias falsas bajo control.

"Las tecnologías de propósito general son las que realmente transforman el mundo", dice Sandberg, y cree que GPT-3 tiene el potencial de hacer precisamente eso, si podemos descubrir cómo usarlo de manera responsable. "Una nueva forma de procesar la información será importante para muchas aplicaciones muy, muy diferentes, lo que significa que no podemos predecir muy bien las consecuencias", dice, "lo cual es profundamente inquietante cuando se tiene mucha potencia. Las tecnologías llegan muy rápidamente. "

Tomará tiempo y los riesgos son inevitables, pero la censura no es la forma de abordarlos. Una mejor opción es que estas preguntas y problemas sean conscientes de todos mientras trabajan con GPT-3. "Lo ideal es que la gente entienda el impacto que van a tener", dice Sandberg. “Mucha ingeniería se atasca con hacer que las cosas funcionen en lugar de levantar la vista hacia el horizonte y pensar '¿dónde encaja esto realmente en nuestra cultura?' Creo que la conciencia, si se puede difundir, es en realidad lo que podría hacer las cosas mucho más seguras y mucho más útiles. "

Digital Society es una revista digital que explora cómo la tecnología está cambiando la sociedad. Se produce como una asociación editorial con Vontobel, pero todo el contenido es editorialmente independiente. Visita Vontobel Impact para más historias sobre cómo la tecnología está dando forma al futuro de la sociedad.

Más grandes historias de Mundo Informático

? La ciudad francesa que creó su propia Amazonía

? Google se enriqueció con sus datos. DuckDuckGo está luchando

? ¿Qué mascarilla debes comprar? La guía CABLEADA

? Escuche The Mundo Informático Podcast, la semana en ciencia, tecnología y cultura, que se entrega todos los viernes

? Siga Mundo Informático en Gorjeo, Instagram, Facebook y LinkedIn

Si quieres conocer otros artículos parecidos a ¿Cómo controlas una IA tan poderosa como la GPT-3 de OpenAI? puedes visitar la categoría Otros.

Otras noticias que te pueden interesar

Subir
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad