En una entrevista en la web de Goldman Sachs, el CIO del banco americano, Marco Argenti, ofrece su análisis de la evolución de los usos de la IA generativa por parte de las empresas. Destacando cómo el enfoque de este último ha evolucionado en gran medida a lo largo de los meses: "Al principio, todos querían entrenar su propio modelo, construir su modelo propietario con sus datos propietarios, manteniendo los datos en gran medida en las instalaciones para garantizar un control limitado. Luego, la gente comenzó darse cuenta de que para obtener el nivel de rendimiento de los modelos grandes, es necesario replicar una infraestructura que es simplemente demasiado costosa: del orden de cientos de millones de dólares.

GPT-4, el último de los grandes modelos de lenguaje (LLM) de OpenAI, probablemente fue entrenado utilizando billones de palabras de texto y miles de procesadores. Un proceso cuyo coste se estima precisamente en más de 100 millones de dólares.

¿El LLM? “Un cerebro para interpretar el mensaje”

De ahí la reflexión de Marco Argenti a favor de una arquitectura híbrida, que combine LLM previamente formados - "apreciados por algunas de sus capacidades, en razonamiento, resolución de problemas y lógica" - y modelos más pequeños, a menudo de código abierto y especializados en tareas específicas, mediante formación de datos de propiedad. En otras palabras, la asociación de modelos básicos disponibles en la nube, utilizados para disociar problemas complejos en una suma de problemas más básicos, y modelos más especializados, alojados en infraestructuras locales o en nubes privadas y que respaldan estas tareas especializadas. “La IA generativa híbrida consiste en utilizar modelos de gran tamaño como una especie de cerebro encargado de interpretar la indicación”, dicho el CIO. Y para precisar: “los sectores que dependen en gran medida de datos privados y que están sujetos a regulaciones muy estrictas serán probablemente los primeros en adoptar esta arquitectura. » Una observación que obviamente se aplica al banco.

RAG, vectorización e ingeniería rápida

“Al principio, todo el mundo pensaba que sin su propio modelo previamente entrenado sería imposible explotar el poder de la IA en los negocios”, continúa Marco Argenti. Hoy en día, técnicas apropiadas como RAG (generación de recuperación aumentada), vectorización de contenido e ingeniería rápida brindan un rendimiento comparable o incluso mejor que los modelos previamente entrenados en aproximadamente el 95% de los casos de uso, y esto por una fracción del costo. »

Marco Argenti, CIO de Goldman Sachs, está diseñando una arquitectura que combina uno o más LLM en el mercado y modelos de IA especializados entrenados en datos internos. (Foto: RD)

Si, para el CIO, el año 2024 estará fuertemente centrado en la búsqueda de casos de uso de IA que proporcionen retorno de la inversión, también espera la aparición de un ecosistema de herramientas complementarias, que garanticen la seguridad, el cumplimiento o la protección de datos para las aplicaciones de IA, “a medida que la tecnología se vuelva más prevalente”. en tareas críticas”. Y anticiparnos aún más a la aparición de modelos multimodales, adaptados por ejemplo a la interpretación de series temporales. "Tal vez aquí es donde veremos la próxima carrera. [entre les acteurs du secteur, NDLR] para capturar una variedad de casos de uso sin explotar”, dice Marco Argenti.

En marzo pasado, el CIO, que se unió a Goldman Sachs en 2019 procedente de Amazon, explicado que los equipos de desarrolladores del banco estaban utilizando IA generativa para generar código de computadora y probarlo. Al tiempo que se presentan estos primeros usos a modo de experimentos. En noviembre de 2023, un responsable de innovación de The Firm -el apodo de Goldman Sachs- indicado que el establecimiento está trabajando en una docena de proyectos que incorporan IA generativa, presentando algunos de los usos más avanzados en torno al desarrollo de TI (generación de código y redacción de documentación). Sin embargo, ninguno de estos proyectos está asociado a una aplicación directamente vinculada a los clientes, debido a la normativa, subrayó entonces el director de Goldman Sachs.

Lea también:
- Hugues Even, BNP Paribas: “Tendremos 1.000 casos de uso de IA en producción en 2025”