Con Bedrock, AWS se invita al mundo de la IA generativa
hace 2 años
Con la locura por los chatbots avanzados, AWS no podía quedarse fuera de este mercado de alto crecimiento. Acaba de presentar su servicio Bedrock, para crear sistemas a partir de modelos pre-entrenados de start-ups.
Con la manía de ChatGPT, las miradas y los medios se centraron en el soporte de Microsoft y su integración del chatbot en muchos de sus servicios. Muy discreto, Amazon Web Services ha decidido salir de la nada en IA generativas, pero no para construir sus propios modelos de IA. Prefiere acercarse a los desarrolladores a través de un servicio en la nube llamado Bedrock.
Asociaciones con empresas emergentes populares de IA
Este último propone crear aplicaciones basadas en IA generativa a partir de modelos pre-entrenados proporcionados por start-ups. Entre ellos encontramos AI21 Labs (especialista en PNL con sus soluciones Jurassic), Anthropic (editor del chatbot Claude y que acaba de recaudar 300 millones de dólares de Google) y Stability AI (editor del generador de imágenes Stable Diffusion). Este servicio está disponible en versión preliminar limitada. Además de este acceso, los desarrolladores también tendrán acceso a los modelos Titan, una familia de sistemas capacitados internamente por AWS, por ejemplo, para escribir artículos de blog.
Para el proveedor de servicios en la nube, Berdrock y Titan tienen dos propósitos. La primera es que las empresas "necesitan una manera fácil de encontrar y acceder a modelos básicos potentes (llamados Modelos básicos) que produzcan resultados que sean relevantes y adecuados para sus propósitos", explica AWS en una publicación de blog. Y agrega: "En segundo lugar, los clientes quieren una integración perfecta en las aplicaciones, sin tener que administrar grandes clústeres de infraestructura o incurrir en altos costos". Cabe señalar que en su comunicación, AWS tiene cuidado de no dar una lista de precios en el servicio de Bedrock. Por otro lado, da el nombre de los clientes que están interesados en este servicio: Pegasystems, Deloitte y Accenture.
Instancias de CodeWhisperer e Inf2 abiertas a todos
Este anuncio se produce después de varios anuncios de asociaciones como Stability AI, que en noviembre pasado eligió a AWS como su proveedor de nube preferido. Más recientemente, en su conferencia de París, AWS presentó un acelerador de inteligencia artificial generativa: un programa destinado a ayudar a las empresas emergentes en etapa inicial en este sector. La firma también dijo que estaba trabajando con Nvidia para construir una infraestructura de "próxima generación" para entrenar modelos de IA.
Hablando de infraestructura, AWS aprovecha el anuncio de Bedrock para que sus instancias Inf2 y Trn1 estén disponibles para la mayor cantidad de personas posible en EC2. Los primeros se presentaron en el último Re:invent y trabajan con chips Inferentia2, dedicados al entrenamiento de modelos de IA. Las instancias Trn1 se basan en el chip Trainium, con un eje de rendimiento de red (ancho de banda de 800 Gbps) para aplicaciones de ML. Son compatibles con TensorFlow, PyTorch y MXNet. Finalmente, AWS está abriendo CodeWhisperer, un competidor de Copilot de Github en autocompletado de código, para todos. Este último anunció varios desarrollos recientemente, incluida la integración de ChatGPT. Para atraer a los desarrolladores individuales, Amazon ofrece una versión gratuita de su oferta.
Si quieres conocer otros artículos parecidos a Con Bedrock, AWS se invita al mundo de la IA generativa puedes visitar la categoría Otros.
Otras noticias que te pueden interesar