AWS está funcionando a toda máquina como parte de su última conferencia re:Invent. Durante su discurso del miércoles, Swami Sivasubramanian, vicepresidente de datos e IA de AWS, describió las actualizaciones de varios modelos básicos existentes para la plataforma de IA generativa del servicio de creación de aplicaciones Amazon Bedrock. Se trata de Claude 2.1 de Anthropic y Meta Llama 2 70B, ambos disponibles de forma generalizada. Amazon también agregó a Bedrock los modelos de base patentados Titan Text Lite y Titan Text Express. El proveedor de servicios en la nube también mostró una vista previa de la plantilla Amazon Titan Image Generator para Bedrock. "Este modelo, que se puede utilizar para generar e iterar imágenes rápidamente a bajo costo, puede comprender mensajes complejos y generar imágenes relevantes con una composición de objetos precisa y distorsiones limitadas", dijo AWS. Las empresas pueden utilizar el modelo en la consola de Amazon Bedrock enviando una consulta en lenguaje natural para generar una imagen o cargando una imagen para su edición automática, antes de configurar las dimensiones y especificar la cantidad de variaciones que debe generar el modelo.

Para combatir la difusión de información falsa, Titan dispone de un discreto mecanismo de identificación para escribir una marca de agua invisible en las imágenes que genera. Los modelos básicos disponibles actualmente en Bedrock incluyen modelos de lenguaje grande (LLM) de AI21 Labs, Cohere Command, Meta, Anthropic y Stability AI. "Es posible perfeccionar estos modelos en Bedrock, con la excepción, por el momento, del Claude 2 de Anthropic", dijo AWS, añadiendo que esta capacidad estará disponible pronto. Para ayudar a las empresas a generar incorporaciones para capacitación o activación de modelos básicos, el proveedor también pone a disposición Amazon Titan Multimodal Embeddings. "El modelo convierte imágenes y textos breves en incrustaciones (el modelo utiliza estas representaciones digitales para comprender fácilmente los significados semánticos y las relaciones entre los datos) que se almacenan en la base de datos vectorial del cliente", dijo la empresa en un comunicado de prensa.

Índice
  1. Evalúe el mejor modelo básico para aplicaciones de IA generativa
  2. Capacidades de SageMaker para ampliar los LLM

Evalúe el mejor modelo básico para aplicaciones de IA generativa

Además, una característica final de Bedrock permite a las empresas evaluar, comparar y seleccionar el mejor modelo de base para su caso de uso y necesidades comerciales. "Esta característica, llamada Evaluación de modelo en Amazon Bedrock, actualmente en versión preliminar, simplifica tareas como identificar puntos de referencia, configurar herramientas de evaluación y ejecutar evaluaciones", dijo la compañía. agregando que la función ahorra tiempo y reduce costos. "En la consola de Amazon Bedrock, las empresas eligen qué modelos quieren comparar para una tarea determinada, como responder una pregunta o resumir contenido", dijo Swami Sivasubramanian, explicando que para las evaluaciones automáticas, las empresas seleccionan puntos finales predefinidos (por ejemplo, precisión, solidez). y toxicidad) y cargar su propio conjunto de datos de prueba o seleccionar conjuntos de datos integrados y disponibles públicamente.

“Para criterios subjetivos o contenido matizado que requiere un juicio más sofisticado, las empresas pueden implementar flujos de trabajo de evaluación basados ​​en humanos, ya sea utilizando datos del personal interno de la empresa o basándose en datos proporcionados por AWS para evaluar las respuestas de los modelos”, indicó también Swami Sivasubramanian. Otras actualizaciones de Bedrock incluyen Guardrails, actualmente en versión preliminar, que ayuda a las empresas a adherirse a los principios de una IA responsable. Tenga en cuenta también que las bases de conocimientos y los agentes de Amazon para Bedrock ahora están disponibles de forma generalizada.

Capacidades de SageMaker para ampliar los LLM

Para ayudar a las empresas a entrenar e implementar de manera eficiente modelos de lenguajes grandes (LLM), AWS ha lanzado dos ofertas: SageMaker HyperPod y SageMaker Inference dentro del servicio de aprendizaje automático e inteligencia artificial de Amazon SageMaker. "A diferencia del proceso manual de modelos de entrenamiento, que a menudo está sujeto a retrasos, gastos innecesarios y otras complicaciones, HyperPod evita el trabajo pesado de construir y optimizar la infraestructura de aprendizaje automático para los modelos de entrenamiento, reduciendo así el tiempo de entrenamiento hasta en un 40%". según la empresa. La oferta incluye las bibliotecas de aprendizaje distribuido de SageMaker, que permiten a los usuarios distribuir automáticamente cargas de trabajo de aprendizaje entre miles de aceleradores y procesar cargas de trabajo en paralelo para mejorar el rendimiento del modelo. Según Swami Sivasubramanian, "HyperPod también permite a los clientes continuar aprendiendo modelos sin interrupción guardando puntos de control periódicamente".

En cuanto a SageMaker Inference, puede ayudar a las empresas a reducir los costos de implementación del modelo y reducir la latencia en las respuestas del modelo. Para hacer esto, Inference permite a las empresas implementar múltiples modelos en la misma instancia de la nube para utilizar mejor los aceleradores subyacentes. "Las empresas también pueden controlar las políticas de escalado para cada modelo, lo que facilita la adaptación a los patrones de uso del modelo y al mismo tiempo optimiza los costos de infraestructura", explicó la firma, y ​​agregó que SageMaker monitorea activamente las instancias de procesos que procesan solicitudes de inferencia y enruta solicitudes de manera inteligente en función de las instancias disponibles. El proveedor también actualizó su plataforma de aprendizaje automático de código bajo para analistas de negocios, SageMaker Canvas. "Los analistas pueden utilizar el lenguaje natural para preparar datos en Canvas para generar modelos de aprendizaje automático", anunció Swami Sivasubramanian. La plataforma sin código admite LLM de Anthropic, Cohere y AI21 Labs. SageMaker también tiene una función de evaluación de modelos, ahora llamada SageMaker Clarify, a la que se puede acceder desde SageMaker Studio. Otras actualizaciones relacionadas con la IA generativa incluyen compatibilidad con bases de datos vectoriales para Amazon Bedrock. Estas bases de datos incluyen Amazon Aurora y MongoDB. Otras bases de datos compatibles son Pinecone, Redis Enterprise Cloud y Vector Engine para Amazon OpenSearch Serverless.