Vertex AI recibe una importante actualización en el evento Next de Google en Las Vegas. La plataforma que facilita la creación y el despliegue de IA generativa está viendo crecer su cartera LLM, incluida Gemini 1.5 Pro, que admite 1 millón de tokens en una ventana emergente. Los primeros comentarios de las empresas sobre este volumen es que evitaría el refinamiento del modelo o el uso de RAG (recuperación de generación aumentada) para rectificar las respuestas del modelo.
Además, Gemini 1.5 Pro en Vertex AI también podrá procesar transmisiones de audio, incluido audio de voz y video. Google dice que la capacidad de procesamiento de audio permite a los usuarios beneficiarse del análisis multimodal y obtener información sobre texto, imágenes, videos y audio. "El modelo Pro también admitirá la transcripción, que se puede utilizar para buscar contenido de audio y video", agregó la firma.
Imagen 2 se enriquece y llega Codegemma
En el catálogo de Google Cloud, Imagen 2 LLM está evolucionando, incluyendo capacidades de edición de fotos, la capacidad de crear videos de 4 segundos o "imágenes en vivo" a partir de indicaciones de texto. La función de creación de imágenes en vivo a partir de texto todavía está en modo de vista previa, pero las capacidades de edición de fotos están disponibles en general, al igual que una función de marca de agua digital que se utiliza para marcar imágenes generadas por IA. CodeGemma, un modelo liviano de la familia propietaria Gemma, también se encuentra entre las actualizaciones de Vertex AI LLM.
Para ayudar a las empresas a obtener respuestas más precisas de sus modelos centrales, Google permitirá a los equipos utilizar los LLM en la Búsqueda de Google, así como sus propios datos a través de Vertex AI. “Los modelos centrales están limitados por sus datos de entrenamiento, que pueden volverse obsoletos rápidamente y pueden no incluir la información que los modelos necesitan para los casos de uso comerciales”, dijo Google, y agregó que el anclaje en la Búsqueda de Google puede mejorar significativamente la precisión de las respuestas.
Ampliación de las capacidades de MLops en Vertex AI
Además, para apoyar a las empresas en sus esfuerzos de aprendizaje automático, el proveedor de servicios en la nube ha ampliado las capacidades MLops de Vertex AI. Una de las funciones ampliadas, denominada Prompt Management, ayuda a los equipos a experimentar con indicaciones, migrarlas y realizar un seguimiento de las indicaciones y los parámetros. “Prompt Management proporciona una biblioteca de indicaciones que utilizan los equipos, incluidas versiones, la opción de restaurar indicaciones antiguas y sugerencias generadas por IA para mejorar el rendimiento de las consultas”, afirmó Google. “Prompt Management también permite a las empresas comparar iteraciones de indicaciones en paralelo para evaluar el impacto de pequeños cambios en los resultados, con la posibilidad de que los equipos tomen notas”, afirmó la empresa.
Otras características ampliadas incluyen herramientas de evaluación, incluida una actualmente en vista previa para evaluar el rendimiento del modelo durante la iteración de diseño rápido. Además de agregar características a los modelos, Nube de Google ha ampliado la residencia de datos almacenados en reposo para las API Gemini, Imagen e Embeddings de Vertex AI a 11 nuevos países: Australia, Brasil, Finlandia, Hong Kong, India, Israel, Italia, Polonia, España, Suiza y Taiwán.
Un generador de agentes para Vertex AI
En un intento por competir con rivales como Microsoft y AWS, Google Cloud ha lanzado una oferta de creación de agentes basada en IA generativa. Llamada Vertex AI Agent Builder, la oferta sin código, una combinación de Vertex AI Search y la cartera de productos Conversation de la empresa, ofrece una gama de herramientas para crear chatbots más rápido, respaldada por Gemini LLM. La ventaja de la oferta sin código es su sistema RAG listo para usar, Vertex AI Search, que crea agentes más rápido que las técnicas RAG tradicionales, que requieren mucho tiempo y son complicadas. "Solo se necesitan unos pocos clics para comenzar a funcionar, y con componentes preconstruidos, la plataforma facilita la creación, el mantenimiento y la gestión de implementaciones más complejas", dijo Google en un comunicado. "Las API RAG integradas en la oferta pueden ayudar a los desarrolladores a realizar rápidamente verificaciones de las entradas", agregó. Para implementaciones aún más complejas, Agent Builder también ofrece búsqueda vectorial para crear sistemas RAG basados en incrustaciones personalizadas. Además, los desarrolladores también tienen la capacidad de moler los resultados del modelo en Google Search para mejorar aún más las respuestas. La gama de herramientas incluidas en la oferta sin código incluye extensiones, funciones y conectores de datos de Vertex AI.
“Mientras que las extensiones Vertex AI son módulos reutilizables preconstruidos para conectar un LLM a una API o herramienta específica, las funciones Vertex AI ayudan a los desarrolladores a describir un conjunto de funciones o API y hacen que Gemini seleccione de manera inteligente la API o función correcta para llamar, junto con los parámetros de API apropiados, para una consulta determinada”, explicó la empresa. “Los conectores de datos, por otro lado, permiten ingerir datos de empresas y aplicaciones de terceros como ServiceNow, Hadoop y Salesforce”. Además de todas las actualizaciones de Vertex AI, Google ha agregado Gemini a su oferta de inteligencia empresarial, Looker. Esta incorporación brinda a la plataforma análisis conversacionales, generación de informes y fórmulas, asistencia para visualización y LookML, y generación automatizada de Google Slides. La suite de análisis de datos también se beneficia de estas otras actualizaciones, actualmente en vista previa, a saber, el lanzamiento de una versión administrada de Apache Kafka para BigQuery y consultas continuas para el mismo servicio.
Otras noticias que te pueden interesar