Según investigadores de Google y la Universidad de Stanford, una conversación de dos horas con un modelo de IA es suficiente para crear una imagen bastante precisa de la personalidad de una persona real. En el marco de un estudio recienteLos investigadores pudieron generar "agentes de simulación", esencialmente clones de IA, 1.052 personas sobre la base de entrevistas de dos horas con cada participante. Estas entrevistas, basadas en un protocolo de mantenimiento desarrollado por el Proyecto American Voices, que explora una serie de temas de interés para los investigadores de ciencias sociales, incluidas las historias de vida y los puntos de vista sobre los problemas sociales actuales, se utilizaron para formar un modelo de IA generativo diseñado para imitar el comportamiento humano.

Para evaluar la precisión de las réplicas de IA, cada participante ha llevado a cabo dos series de pruebas de personalidad, encuestas sociales y juegos lógicos. Cuando las réplicas de IA realizaron las mismas pruebas, sus resultados correspondieron a las respuestas de sus homólogos humanos con una precisión del 85 %. En los cuestionarios de personalidad, las respuestas de los clones de IA difieren poco de las de sus homólogos humanos. Los clones son particularmente eficientes cuando se trata de reproducir respuestas a cuestionarios de personalidad y determinar las actitudes sociales. Por otro lado, eran menos precisos cuando se trataba de predecir el comportamiento en los juegos interactivos que involucran decisiones económicas.

Índice
  1. Miedos al desvío de uso
  2. ¿Hacia la creación de un banco de agentes de IA?

Miedos al desvío de uso

Los científicos explican que el desarrollo de agentes de simulación ha sido motivado por la posibilidad de usarlos para realizar estudios que serían costosos, poco prácticos o contrarios a la ética con sujetos humanos reales. Por ejemplo, los modelos de IA podrían ayudar a evaluar la efectividad de las medidas de salud pública o comprender mejor las reacciones al lanzamiento de un producto. Según los investigadores, incluso sería posible modelar reacciones a eventos sociales importantes. "La simulación general de las actitudes y el comportamiento humanos podría ofrecer a los investigadores a probar una amplia gama de intervenciones y teorías", escriben investigadores.

Sin embargo, los científicos también reconocen que la tecnología podría usarse mal. Por ejemplo, los agentes de simulación podrían usarse para engañar a otras personas en línea con ataques de defake. Los expertos en seguridad ya encuentran que esto significa que está progresando rápidamente y piensan que es solo cuestión de tiempo antes de que los ciberdelincuentes encuentren un modelo de negocio que pueden usar contra las empresas. Muchos líderes ya han dicho que su negocio había sido el objetivo de estafas de Deepfake últimamente, en particular con respecto a los datos financieros. La compañía de seguridad Exabeam mencionó recientemente un incidente durante el cual se utilizó un defake profundo como parte de una entrevista de trabajo, junto con la estafa de Corea del Norte de falsos informáticos que está creciendo.

¿Hacia la creación de un banco de agentes de IA?

Los investigadores de Google y Stanford ofrecen la creación de un "banco de agentes" que reúne los miles de agentes de simulación generados. Este banco, organizado en la Universidad de Stanford, "proporcionaría acceso controlado a la API, reservado para la investigación, al comportamiento de los agentes", según los investigadores. Aunque la investigación no aumenta expresamente las capacidades para crear defensores profundos, muestra lo que rápidamente se vuelve posible en términos de crear personalidades humanas simuladas en la investigación avanzada de hoy.