Poco a poco, la plataforma de desarrollo de aplicaciones de IA deAWS El proveedor de la nube está enriqueciendo Bedrock con varias funciones. Entre ellas, el anclaje contextual o grouding contextual integrado en Guardrails (función de protección y seguridad) “para mitigar los riesgos de respuestas injustificadas o alucinatorias de una aplicación basada en un LLM”, indica Vasi Philomin, vicepresidente de IA generativa de Amazon. Añade que esta función, “utiliza métodos RAG y de resumen para detectar alucinaciones en las respuestas del modelo, verifica si la respuesta del LLM se basa en los datos correctos de la empresa y si está bien alineada con la consulta o instrucción del usuario”.

Índice
  1. Barandillas en modo autónomo
  2. Más conectores RAG y LLM
  3. App Studio crea aplicaciones GenAI con un solo mensaje

Barandillas en modo autónomo

Otros proveedores de servicios en la nube importantes, como Google y Microsoft Azure, también han implementado un sistema para evaluar la confiabilidad de los procesos RAG, como el mapeo de métricas de generación de respuestas. Si bien Microsoft utiliza la API Groundedness Detection para verificar si las respuestas de texto en LLM se basan en documentos fuente proporcionados por el usuario, Google actualizó recientemente las opciones de conexión a tierra de Vertex AI con capacidades de recuperación dinámica y un modo de alta fidelidad. AWS también ofrece funciones de evaluación y observabilidad de RAG en Bedrock que pueden medir la fidelidad de la respuesta, la relevancia de la respuesta y la similitud semántica de la respuesta para evaluar la calidad de la respuesta de una consulta.

AWS ofrecerá Guardrails para Amazon Bedrock como una API independiente para su uso con modelos LLM fuera de Bedrock. “Debido a las numerosas solicitudes de clientes empresariales que desean utilizar la API Guardrails en modelos fuera de Bedrock, se pondrá a disposición de forma independiente”, afirmó Philomin. La medida de AWS refleja la estrategia de IBM, que desde mayo ha puesto a disposición su producto watsonx.governance a través de un kit de herramientas. Si bien el kit de herramientas no es exactamente comparable con la API Guardrails, se puede utilizar para crear un repositorio para registrar detalles a lo largo del ciclo de vida de un modelo. Esta información puede ser útil para evaluar la validez de la elección de un modelo o determinar qué partes interesadas participaron en el ciclo de vida del modelo.

Más conectores RAG y LLM

Otras actualizaciones del servicio de IA generativa incluyen la incorporación de conectores RAG a Bedrock para ampliar la capacidad de anclar modelos a una mayor variedad de fuentes de datos. “Además de Amazon S3, los desarrolladores ahora pueden aprovechar los conectores para Salesforce, Confluence y SharePoint para RAG”, señaló Philomin, y señaló que el conector de SharePoint se encuentra actualmente en versión preliminar. AWS también anunció que ahora es posible refinar Claude 3 Haiku de Anthropic dentro de Bedrock. “Esta opción, también en versión preliminar, no está disponible en ningún otro proveedor de servicios en la nube hasta la fecha y es muy solicitada por los clientes empresariales”, señaló el ejecutivo.

Otras actualizaciones incluyen la disponibilidad general de la búsqueda vectorial para Amazon MemoryDB y capacidades adicionales para los agentes de Bedrock. “Ahora, los agentes pueden retener la memoria en múltiples interacciones para recordar dónde se quedó el usuario la última vez y brindar mejores recomendaciones basadas en interacciones anteriores”, explicó Philomin, y agregó que los agentes ahora pueden interpretar el código para abordar casos de uso complejos basados ​​en datos, como análisis y visualización de datos, procesamiento de texto, resolución de ecuaciones y problemas de optimización.

App Studio crea aplicaciones GenAI con un solo mensaje

AWS también presentó el servicio administrado App Studio impulsado por IA generativa que permite a los usuarios crear e implementar aplicaciones utilizando indicaciones en lenguaje natural. “Con App Studio, un usuario simplemente describe la aplicación que desea, lo que quiere que haga y las fuentes de datos con las que desea integrarse, y App Studio crea una aplicación en minutos, mientras que un desarrollador profesional necesitaría días para crear una aplicación similar desde cero”, dijo AWS en un comunicado. “Con el asistente de IA generativa de App Studio, no es necesario aprender herramientas de poco código”, dijo la empresa. Amazon App Studio podría competir con ofertas rivales como Vertex AI Studio de Google y Copilot Studio de Microsoft.

AWS también anunció la disponibilidad general de Q Apps, una función de Q Business que se presentó en AWS re:Invent 2023. “Con Q Apps, las empresas pueden pasar de una conversación a una aplicación generativa impulsada por IA basada en sus datos comerciales en segundos. Los usuarios simplemente describen la aplicación que desean en un mensaje y Q la genera instantáneamente”, dijo AWS. El proveedor también dijo que Q ofrecerá a los usuarios la opción de generar una aplicación a partir de una conversación existente.