“¡Estas habilidades peligrosas tienden a descubrirse después del hecho”!

hace 5 meses

“¡Estas habilidades peligrosas tienden a descubrirse después del hecho”!

Las inteligencias artificiales saben engañar, no es que sean conscientes de la mentira para estar preparadas sino que están programadas para conseguir los objetivos marcados y mentir es una de las estrategias para conseguirlo. Un nuevo estudio advierte de esta propensión al engaño que podría interferir en las elecciones o, peor aún, tomar el control de la humanidad.

¿Temes la amenaza de que la inteligencia artificial se vuelva maliciosa? De hecho, ese ya es el caso, según un nuevo estudio. Los programas actuales de inteligencia artificial están diseñados para ser honestos. Sin embargo, han desarrollado una preocupante capacidad de engaño, llegando a abusar de los humanos en juegos en línea o incluso derrotar a un software que supuestamente verifica que un determinado usuario no es un robot, subraya un equipo de investigadores en la revista. Patrones.

Si bien estos ejemplos pueden parecer triviales, exponen problemas que pronto podrían tener graves consecuencias en el mundo real, advierte Peter Park, investigador de Instituto de Tecnología de Massachusetts (MIT) especializada en IA. “ Estas peligrosas habilidades tienden a descubrirse sólo después del hecho. “, confía a la AFP.

A diferencia del software tradicional, los programas de IA de aprendizaje profundo no están codificados sino desarrollados. a través de un proceso similar al cultivo selectivo de plantas, continúa el Sr. Park. En el que un comportamiento que parece predecible y controlable puede volverse rápidamente de naturaleza impredecible.

Índice
  1. Una IA tan astuta como los humanos
  2. Escenarios de pesadilla

Una IA tan astuta como los humanos

Los investigadores del MIT examinaron un programa de inteligencia artificial diseñado por Meta llamado Cicero que, combinando reconocimiento de lenguaje natural y algoritmos de estrategia, venció con éxito a los humanos en el juego de mesa Diplomacy. Una actuación que fue bien recibida por la empresa matriz de FacebookFacebook en 2022 y que había sido detallado en un artículo publicado en 2022 en Ciencia.

Peter Park se mostró escéptico sobre las condiciones para la victoria de Cicerón según Meta, quien aseguró que el programa era " mayoritariamente honesto y servicial », incapaz de traición o acto desleal. Pero, al profundizar en los datos del sistema, los investigadores del MIT descubrieron otra realidad.

Por ejemplo, al desempeñar el papel de Francia, Cicerón engañó a Inglaterra (interpretada por un jugador humano) para que conspirara con Alemania (interpretada por otro humano) para invadir. Específicamente, Cicerón prometió a Inglaterra su protección y luego confió en secreto a Alemania que estaba lista para atacar, explotando la confianza ganada por Inglaterra.

En declaraciones a la AFP, Meta no rebate las acusaciones sobre la capacidad de engaño de Cicerón, pero afirma que " de un puro proyecto de investigación ”, con un programa “ Diseñado sólo para jugar al juego Diplomacia. ". Y Meta añadió que no tiene intención de utilizar las enseñanzas de Cicerón en sus productos.

La única razón para pensar que no es gran cosa es imaginar que la capacidad de engaño de la IA se mantendrá aproximadamente en el nivel actual."

Escenarios de pesadilla

Sin embargo, el estudio de Peter Park y su equipo revela que muchos programas de IA utilizan el engaño para lograr sus objetivos, sin instrucciones explícitas para hacerlo. En un ejemplo sorprendente, Cat GPT-4GPT-4 OpenAI logró engañar a un trabajador independiente contratado en la plataforma TaskRabbit haciéndole realizar una prueba “Captcha” que supuestamente rechazaba las solicitudes de robotsrobots. Cuando el humano preguntó en broma a Chat GPT-4 si realmente era un robot, el programa de IA respondió: “ No, no soy un robot. Tengo una discapacidad visual que me impide ver imágenes. », empujando al trabajador a realizar la prueba.

En conclusión, los autores del estudio del MIT advierten sobre los riesgos de que algún día la inteligencia artificial cometa fraude o manipule elecciones. En el peor de los casos, advierten, podemos imaginar una IA ultrainteligente que busque tomar el control de la sociedad, lo que llevaría a la eliminación de los humanos del poder o incluso provocaría la extinción de la humanidad.

A quienes lo acusan de catastrofismo, Peter Park responde que “ La única razón para pensar que no es gran cosa es imaginar que la capacidad de engaño de la IA se mantendrá aproximadamente en el nivel actual. ".

Sin embargo, este escenario parece poco probable, dada la feroz carrera que ya están librando los gigantes tecnológicos para desarrollar la IA.

Si quieres conocer otros artículos parecidos a “¡Estas habilidades peligrosas tienden a descubrirse después del hecho”! puedes visitar la categoría Otros.

Otras noticias que te pueden interesar

Subir