¿Por qué el increíble generador de texto de OpenAI es controvertido?
hace 4 años
No se ha dejado de hablar de GPT-3 desde que entró en fase beta hace algún tiempo. Tan impresionante como preocupante, el generador de texto OpenAI plantea una gran cantidad de cuestiones técnicas, pero también sociales y éticas.
La inteligencia artificial está comenzando a abrirse camino en la vida cotidiana, en diversos campos, como el procesamiento de imágenes. En laboratorios de investigación y empresas, se utiliza como herramienta o con fines exploratorios, a veces con resultados espectaculares. Y si hay una empresa que simboliza a la perfección este aspecto, sin duda es OpenAI. La empresa fundada, entre otros, por Elon Musk en 2015, se ha acostumbrado a tener éxito con varios proyectos muy publicitados, con salidas muy concretas y, a menudo, resultados bastante impresionantes. Y podemos decir con seguridad que no es su último bebé GPT-3 el que revertirá esta dinámica, al contrario.
GPT-3, para Transformer-3 preentrenado generativo, es la última iteración de uno de los proyectos más emocionantes, pero también divisivos de OpenAI. ¿El motivo de esta IA que se entrena a partir del contenido disponible en la web? Generar texto, en todo, en cualquier cosa y en cualquier estilo. Esta última versión, de apenas tres meses de antigüedad, acaba de entrar en beta privada y algunos afortunados funcionarios de la industria han comenzado a jugar con la API. El concepto es simple: proporcione o no instrucciones (tono, contexto, nombre del autor, estilo, años…) y GPT-3 escupirá el texto correspondiente. Y lo menos que podemos decir es que los primeros comentarios son francamente impresionantes.
Empecemos por el blog de Gwern Branwen, que está lleno de ejemplos variados y bastante impresionantes, que van desde la ficción hasta el diálogo. En este hermoso ejemplo, Mario Klingermann simplemente proporcionó el nombre de un autor imaginario, la primera letra del texto y un título ... y el sistema respondió con una divertida mini historia (disponible en su totalidad aquí) sobre los pensamientos de un londinense de 1897 en Gorjeo.
Otro intento de pieza más larga. Un Jerome K. Jerome imaginario escribe sobre Twitter. Lo único que sembré fue el título, el nombre del autor y el primer "Eso", el resto lo hace # gpt3
Aquí está la versión completa en PDF: https: //t.co/d2gpmlZ1T5 pic.twitter.com/1N0lNoC1eZ
- Mario Klingemann (@quasimondo) 18 de julio de 2020
Útil ? Ciertamente no. ¿Consistente y muy impresionante? Oh sí ! Algunos ejemplos de nichos son incluso particularmente fascinantes: el autor, por ejemplo, le pidió que imaginara cómo sería un futuro. registro de cambios (la lista de cambios realizados por los desarrolladores en un nuevo parche) de Dwarf Fortress! Un ejemplo que, sin embargo, ilustra bien la flexibilidad editorial de la herramienta. Sobre la base de un sistema como éste, uno puede imaginarse que ciertos artículos de prensa estrictamente fácticos, como el informe de un partido de fútbol o de un juicio, podrían ser producidos por tales sistemas. . Es una vía que ya está ampliamente explorada, y ejemplos como este nos acercan a ella cada día.
Contenido textual, pero no solo
Pero recuerde: GPT-3 es un generador de texto, en el sentido más general del término. Esto significa que puede escribir oraciones, como vimos anteriormente ... pero no solo. Por ejemplo, el desarrollador web Sharif Shameem ha programado y publicado un ejemplo particularmente fenomenal de la API de OpenAI: simplemente ingrese una descripción verbal de una interfaz web deseada ... y este generador producirá el código correspondiente (JSX en este caso). También puede advertirle de inmediato, si ya ha tenido en sus manos la programación web antes, estos dos minutos de video podrían bloquear su mandíbula en la posición abierta por un tiempo. Simplemente ingrese una descripción verbal de una interfaz web deseada, y en menos tiempo del que le toma a un diseñador web decir "¡Nos están robando nuestro trabajo!", el sistema permite así generar el código correspondiente a un texto, un botón en forma de sandía, una pancarta de arcoíris, o lo que tu mente pueda imaginar ...
Esto es alucinante.
Con GPT-3, construí un generador de diseño en el que simplemente describe cualquier diseño que desee y genera el código JSX por usted.
QUÉ pic.twitter.com/w8JkrZO4lk
- Sharif Shameem (@sharifshameem) 13 de julio de 2020
A partir de ahí, los límites se van volando. Podemos imaginar fácilmente que tal herramienta sería capaz de generar diferentes gramáticas para realizar generación procedimental, decodificar lenguajes aún misteriosos, imaginar nuevos lenguajes de programación ... desde poesía hasta canciones pasando por discursos o epitafios, ¡todas las fantasías textuales están permitidas!
Preocupaciones tan antiguas como la IA
Sobre la base de estas observaciones, se podría pensar que todos serían unánimes y aprobarían estos pasos sin reservas. Pero este no es el caso, ni mucho menos; Hoy en día, cada vez se alzan más voces para expresar su preocupación por estas tecnologías y para exigir un mayor control. Para empezar… el propio Elon Musk, todavía encaramado en la parte superior del organigrama de OpenAI, que no va de la mano con su legendario "tacto".
Si no le preocupa la seguridad de la IA, debería estarlo. Mucho más riesgo que Corea del Norte. pic.twitter.com/2z0tiid0lc
- Elon Musk (@elonmusk) 12 de agosto de 2017
La principal preocupación es que, como todos los modelos altamente autónomos, OpenAI a veces produce contenido que es inconsistente, o cuya lógica al menos escapa a nuestra mente humana a primera vista. Para estimar la escala del fenómeno, el matemático e informático Kevin Lacker jugó un jueguito: pasar una mini prueba de Turing (que consiste en poner a un humano en un enfrentamiento verbal ciego con una computadora). y otro humano, para juzgar su "humanidad" ) a GPT-3. Y sus conclusiones son inquietantes y poco claras, por decir lo mínimo, pero no es sorprendente: GPT-3 es muy bueno para sintetizar contenido fáctico, eso es un hecho. Pero como era de esperar, tan pronto como el tema requiere matices o sentido común, la ecuación se vuelve mucho, mucho más complicada.
El otro problema que hace que tanta gente reaccione ante la última OpenAI tiene su origen en el mismo recurso que es su fortaleza: Internet. Como se mencionó anteriormente, GTP-3 se alimenta de miles de millones de líneas de texto extraídas de la web para progresar, pero como todos saben, la web es todo menos un santuario y hay una legión de comentarios racistas, sexistas u homofóbicos. Resultado: cuando propongas al generador palabras clave como "Negro", "mujer", "judíos", o "holocausto", GPT-3 genera rápidamente comentarios inaceptables.
Nadie debería sorprenderse por esto. ¿Cómo evitamos que esto suceda accidentalmente? Aún no tengo todas las respuestas, pero el ajuste fino de antecedentes normativos sólidos y generalizables ayudó con GPT-2 https://t.co/V12NM8ZtAH https://t.co/1bn6G6eWjM
- Mark O. Riedl (@mark_riedl) 18 de julio de 2020
Tantos puntos que nos permiten apreciar lo lejos que tenemos que llegar antes de lograr crear un “cierto”La llamada inteligencia artificial fuerte, capaz de razonar, sentir y reaccionar con emociones y reflejos que hoy siguen siendo específicos del ser humano, lejos de simples algoritmos de aprendizaje automático en el que se basa.
"No es un error, es una característica"
Hay dos razones por las que estas preguntas son tan preponderantes. La primera es que, a largo plazo, esta tecnología acabará en el mercado de una forma u otra. Y no hace falta decir que la desinformación en la web ya está bastante presente, y que con mucho gusto prescindiríamos de los servicios de una IA periodística racista y conspiradora. Estos posibles sesgos son tanto más preocupantes cuanto que la empresa se ha fijado un objetivo final: el de diseñar un inteligencia artificial general (AGI). A diferencia del algoritmo que mejora las fotos en su teléfono inteligente, no sería una simple pieza de código entrenada de antemano para realizar una tarea muy específica. En cambio, los investigadores intentan reproducir la inteligencia humana en su totalidad, con la capacidad de captar, comprender y aprender conceptos humanos: a veces hablamos de "IA fuerte". Un sistema así tendría muchas ventajas, más allá de la simple hazaña conceptual de haber recreado una pequeña mente humana. En teoría, esto permitiría, por ejemplo, revolucionar un campo de aprendizaje automático donde le pedimos a un algoritmo que organice, interprete y utilice datos en bruto por sí solo, sin intervención humana.
Pero al hacerlo, podríamos dar lugar a una IA fuerte intrínsecamente racista, o incluso peor: la SF ya ha hecho en gran medida el inventario de posibles escenarios de desastre y no nos detendremos en esto. Por otro lado, casi todos los investigadores en el tema coinciden en que se trata esencialmente de una cuestión de "Insectos”, Que podría resolverse para evitar estos sesgos. ¿Pero es éste realmente el caso? Hay un dicho sarcástico en informática, utilizado por los desarrolladores como burla o burla: "No es un error, es una característica”. Y en el contexto de una IA fuerte, uno podría preguntarse si este no es también el caso. Porque esta IA se basa en nuestro Internet, navegación nuestro contenido, escrito con nuestro idioma y de Nuestros cerebros… Por lo tanto, la solución tal vez sea limitar los casos en los que se instruye a la IA para que nos imite… o, mejor aún, modificar nuestro comportamiento para darle un modelo más honorable.
Si quieres conocer otros artículos parecidos a ¿Por qué el increíble generador de texto de OpenAI es controvertido? puedes visitar la categoría Artículos.
Otras noticias que te pueden interesar