Según Rishi Bommasani, graduado del Instituto de IA centrada en el ser humano (HAI) de Stanford, los editores de fundaciones modelo se están volviendo menos transparentes. Por ejemplo, la empresa OpenAI, que tiene la palabra "abierto" en su nombre, ha declarado claramente que no será transparente sobre la mayoría de los aspectos de su modelo estrella, el GPT-4. Y esta falta de información tiene implicaciones para todas las partes interesadas. Por ejemplo, es más difícil para otras empresas saber si pueden crear de forma segura aplicaciones basadas en estos modelos, así como para los académicos confiar en ellos para sus investigaciones. Lo mismo ocurre con los responsables políticos a quienes les resulta difícil diseñar marcos que regulen esta tecnología y a los consumidores a quienes les resulta difícil comprender los límites de los modelos o buscar compensación por el daño sufrido tal como está. Así, con el objetivo de evaluar la transparencia, Rishi Bommasani y el director del Centro de Investigación sobre Modelos de Fundamentos (CRFM), Percy Liang, reunieron a un equipo multidisciplinario de Stanford, MIT y Princeton para diseñar un sistema de calificación llamado Índice de Transparencia de Modelos de Fundaciones. (FMTI).
Este índice evalúa 100 aspectos diferentes de la transparencia, desde cómo una empresa construye un modelo básico hasta cómo funciona y cómo se utiliza en el futuro. Para este trabajo, el equipo especifica que ha evaluado a 10 actores importantes del sector en función de estos criterios. Dato curioso: las empresas analizadas no fueron elegidas al azar. Nueve de ellos se han comprometido voluntariamente con la administración Biden a gestionar los riesgos que plantea la IA. Y, sin embargo, las acciones no han seguido a las palabras. La conclusión es la siguiente: hay mucho margen de mejora. De hecho, las puntuaciones más altas, entre 47 y 54, muestran claramente una falta de información, mientras que la puntuación más baja es 12. "Esta es una indicación bastante clara de cómo se comparan estas empresas con sus competidores, y esperamos que las anime a mejorar su comunicación”, comenta Rishi Bommasani.
Meta, mucho mejor estudiante que Amazon en términos de transparencia
De los 100 indicadores, aproximadamente un tercio se relaciona con cómo los jugadores construyen sus modelos, incluida información sobre los datos de entrenamiento, la mano de obra utilizada para crearlos y los recursos informáticos involucrados. Otro tercio se refiere al modelo en sí, incluidas sus capacidades, confiabilidad, riesgos y su mitigación. Finalmente, el último tercio se refiere a cómo se utilizan los modelos en sentido descendente, incluida la divulgación de las políticas de la empresa con respecto a la distribución del modelo, la protección de los datos del usuario y el comportamiento del modelo, y si la empresa ofrece oportunidades de retroalimentación o reparación a los afectados.
Después de desarrollar una primera versión de las puntuaciones FMTI, el equipo dio a las empresas la oportunidad de responder. Luego, el equipo revisó su segunda opinión e hizo las modificaciones necesarias. Al final de este trabajo, fue Meta quien obtuvo la puntuación más alta, 54%, aunque considerada “poco impresionante” por los investigadores. “No deberíamos considerar Meta como la meta, como si todos debieran intentar alcanzar Meta”, dice Rishi Bommasani. "Debemos asumir que todo el mundo intenta llegar a 80, 90, incluso 100", añade. A Meta le sigue Hugging Face y su modelo Bloomz, luego OpenAI y su modelo GPT-4. Última en la lista establecida de diez empresas tecnológicas, Amazon y su modelo Titan obtienen la mediocre puntuación del 12%. Entonces puedo hacerlo mejor.
Gráfico que clasifica las 10 empresas modelo de fundación, con Llama 2 de Meta en la parte superior y Titan Text de Amazon en la parte inferior. (Crédito: HAI Stanford)
Ante un mercado en proceso de maduración, los editores deben demostrar transparencia
En el artículo publicado, los investigadores creen que más allá de estos resultados, lo que resultan más importantes son los indicadores en los que casi todas las empresas obtuvieron malos resultados. “Por ejemplo, ninguna empresa proporciona información sobre el número de usuarios que dependen de su modelo ni estadísticas sobre las geografías o sectores de mercado que utilizan su modelo. La mayoría de las empresas tampoco revelan en qué medida se utiliza material protegido por derechos de autor como datos de formación. Tampoco revelan sus prácticas laborales, lo que puede resultar muy problemático”, indica.
Considerada esencial, esta información relativa a las tecnologías que algún día todos podríamos tener que utilizar con regularidad debe ser pública. “A medida que el mercado de modelos básicos madure y se consolide, y las empresas tal vez avancen hacia una mayor transparencia, será importante mantener el índice actualizado”, dice Rishi Bommasani. Para facilitar esto, el equipo pide a las empresas que revelen información sobre cada uno de los índices FMTI en un solo lugar, lo que también les permite obtener un punto adicional en esta calificación. “Será mucho mejor si sólo tuviéramos que verificar la información en lugar de buscarla”, añade Rishi Bommasani.
La transparencia se considera esencial en la regulación de estos modelos
Cualquiera que hable de claridad debe demostrarlo él mismo. El equipo de investigadores aplicó sus principios al pie de la letra y publicó un documento detallado de 100 páginas sobre la metodología y los resultados, además del propio índice, que incluye todos los datos de todos los indicadores, el protocolo utilizado para la puntuación y las puntuaciones de los desarrolladores. con justificaciones. “Para muchos responsables políticos de la UE, pero también de EE.UU., Reino Unido, China, Canadá, el G7 y muchos otros gobiernos, la transparencia es una máxima prioridad política”, explica Rishi Bommasani. Así, a través de este índice, el equipo de investigadores espera ayudar a los responsables políticos a elaborar regulaciones adecuadas. Un guiño a la Unión Europea que actualmente está trabajando en la adopción de un reglamento sobre IA. La posición del Parlamento Europeo a la hora de iniciar negociaciones exige la divulgación de algunos, pero no de todos, los indicadores cubiertos por el FMTI. Al resaltar las deficiencias de las empresas, Rishi Bommasani espera que el índice ayude a guiar el enfoque de la UE hacia el próximo proyecto.
“La falta de transparencia ha sido durante mucho tiempo un problema para los consumidores de tecnologías digitales”, señala Rishi Bommasani. Hemos visto anuncios y precios engañosos en Internet, patrones oscuros que engañan a los usuarios para que realicen compras sin su conocimiento y una gran cantidad de problemas con la moderación de contenido que han dado lugar a un vasto ecosistema de falsificación y desinformación. en las redes sociales", añade, antes de concluir: "Como usuarios finales de los sistemas de IA, los consumidores necesitan saber en qué modelos básicos se basan estos sistemas, cómo denunciar los daños causados por un sistema y cómo buscar reparación.
Otras noticias que te pueden interesar