Los expertos en inteligencia artificial desaprueban la campaña de Musk citando su investigación
hace 2 años
LONDRES, 31 mar (Mundo Informático) - Cuatro expertos en inteligencia artificial expresaron su preocupación después de que su trabajo fuera citado en una carta abierta, firmada junto con Elon Musk, que pedía una pausa urgente en la investigación.
La carta, fechada el 22 de marzo y con más de 1.800 firmas hasta el viernes, pedía una pausa de seis meses en el desarrollo de sistemas "más potentes" que el nuevo GPT-4 (MSFT.O) compatible con OpenAI de Microsoft, que puede contener humanos. conversaciones, componer canciones y resumir documentos extensos.
Desde que se lanzó el año pasado el predecesor de GPT-4, ChatGPT, las empresas rivales se han apresurado a lanzar productos similares.
La carta abierta afirma que los sistemas de IA con "inteligencia humana-competitiva" plantean graves riesgos para la humanidad, citando 12 investigaciones realizadas por expertos, incluidos académicos universitarios y empleados actuales y anteriores de OpenAI, Google (GOOGL.O) y su subsidiaria DeepMind.
Desde entonces, grupos de la sociedad civil en los EE. UU. y la UE han presionado a los legisladores para frenar la investigación de OpenAI. OpenAI no respondió de inmediato a las solicitudes de comentarios.
Los críticos acusaron al Instituto del Futuro de la Vida (FLI), la organización detrás de la carta que está financiada principalmente por la Fundación Musk, de priorizar los escenarios del fin del mundo imaginarios sobre las preocupaciones más inmediatas sobre la IA, como el sesgo racista o sexista programado en los automóviles.
Entre las investigaciones citadas se encontraba "Sobre los peligros de los loros estocásticos", un artículo muy conocido escrito en coautoría por Margaret Mitchell, quien anteriormente supervisó la investigación ética de IA en Google.
Mitchell, ahora jefe científico ético de la firma de inteligencia artificial Hugging Face, criticó la carta y dijo a Mundo Informático que no estaba claro qué se consideraba "más poderoso que GPT4".
“Al tratar muchas ideas cuestionables como un hecho, la carta afirma un conjunto de prioridades y una narrativa en torno a la IA que beneficia a los partidarios de FLI”, dijo. "Ignorar el daño activo en este momento es un privilegio que algunos de nosotros no tenemos".
Sus coautores Timnit Gebru y Emily M. Bender criticaron la carta en Twitter, y esta última calificó algunas de sus afirmaciones como "desquiciadas".
El presidente de FLI, Max Tegmark, dijo a Mundo Informático que la campaña no era un intento de obstaculizar la ventaja corporativa de OpenAI.
"Es bastante divertido. He visto a personas decir: 'Elon Musk está tratando de frenar la competencia'", dijo, y agregó que Musk no participó en la redacción de la carta. "Esto no es una empresa".
RIESGO AHORA
Shiri Dori-Hacohen, profesora asistente de la Universidad de Connecticut, también cuestionó que su trabajo se mencionara en la carta. El año pasado fue coautora de un artículo de investigación en el que argumentaba que el uso generalizado de la IA ya planteaba riesgos graves.
Su investigación ha argumentado que el uso actual de los sistemas de inteligencia artificial podría influir en la toma de decisiones en relación con el cambio climático, la guerra nuclear y otras amenazas existenciales.
Le dijo a Mundo Informático: "La IA no necesita lograr inteligencia a nivel humano para exacerbar estos riesgos".
"Hay riesgos inexistentes que son muy, muy importantes, pero no reciben el mismo tipo de atención al nivel de Hollywood".
Cuando se le pidió que comentara sobre las críticas, Tegmark de FLI dijo que los riesgos de la IA deben tomarse en serio tanto a corto como a largo plazo.
"Si citamos a alguien, solo significa que estamos diciendo que respalda esa oración. No significa que respalda la carta, o que respaldamos todo lo que piensa", dijo a Mundo Informático.
Dan Hendrycks, director del Centro para la Seguridad de la IA con sede en California, también citado en la carta, respaldó su contenido y le dijo a Mundo Informático que era razonable considerar eventos de cisne negro, que parecen poco probables, pero que tendrían consecuencias devastadoras.
La carta abierta también advirtió que las herramientas generativas de inteligencia artificial podrían usarse para inundar Internet con "propaganda y falsedades".
Dori-Hacohen dijo que era "lo suficientemente rico" para que Musk lo firmara, citando un aumento en la desinformación en Twitter luego de su toma de control de la plataforma, documentado por el grupo de la sociedad civil Common Cause y otros.
Twitter pronto implementará una nueva estructura de tarifas para acceder a sus datos de investigación, lo que podría dificultar la investigación sobre el tema.
“Esto ha tenido un impacto directo en el trabajo de mi laboratorio y el realizado por otros que estudian la desinformación y la desinformación”, dijo Dori-Hacohen. "Estamos operando con una mano atada a la espalda".
Musk y Twitter no respondieron de inmediato a las solicitudes de comentarios.
Información de Martin Coulter; edición de Philippa Fletcher
Nuestros estándares: los principios de confianza de Thomson Mundo Informático.
Si quieres conocer otros artículos parecidos a Los expertos en inteligencia artificial desaprueban la campaña de Musk citando su investigación puedes visitar la categoría Tecnología.
Otras noticias que te pueden interesar