- Amazon invierte en la formación de un LLM. Después habiendo invertido en Anthropic A finales de septiembre, la firma estadounidense trabaja en su propio LLM. dos personas familiarizadas con el asunto dijeron a Reuters. Llamado Olympus, el modelo tiene 2 billones de parámetros, lo que podría convertirlo en uno de los modelos más grandes que se están entrenando actualmente. En comparación, se dice que el modelo GPT-4 de OpenAI, uno de los mejores modelos disponibles en la actualidad, tiene un billón de parámetros. El equipo que trabaja en este modelo está dirigido por Rohit Prasad, exdirector de Alexa, que ahora reporta directamente al director ejecutivo Andy Jassy. Los investigadores que trabajaron en Alexa AI y el equipo científico de Amazon fueron movilizados para trabajar en modelos. Por último, cabe destacar que Amazon ya ha creado modelos más pequeños como Titan.
- La App Defense Alliance se une a la Joint Development Foundation. En 2019, Google lanzó elAlianza de defensa de aplicaciones (ADA) para combatir las aplicaciones maliciosas de Android que se infiltran en la tienda de aplicaciones Play. La iniciativa acaba de sumarse a la Fundación de Desarrollo Conjunto (JDF), una proyecto de la Fundación Linux destinado a ayudar a las empresas que trabajan en especificaciones técnicas, estándares y esfuerzos relacionados. Al unirse a esta fundación independiente, ADA muestra apertura. "La evolución de la App Defense Alliance bajo el JDF representa un importante paso adelante y demuestra un compromiso compartido de los miembros para fortalecer la seguridad de las aplicaciones y los estándares asociados en todos los ecosistemas", dijo en un comunicado. agregando: "Con una comunidad que incluye 17 miembros generales y contribuyentes adicionales, la Alianza apoyará la adopción en toda la industria de las mejores prácticas y pautas de seguridad de aplicaciones, así como contramedidas contra los riesgos de seguridad emergentes". Meta y Microsoft, que ahora se unen al Comité Directivo de ADA, anunciaron en una declaración conjunta que el objetivo final es "mejorar la seguridad de las aplicaciones" fomentando una mayor "implementación colaborativa de los estándares de la industria".
- Microsoft respaldado por Oracle en Bing Chat. La IA generativa, que consume muchos recursos, fortalece la asociación entre las dos empresas. La firma de Redmond planea trasladar algunos de los modelos de aprendizaje automático utilizados por Bing Search al superclúster GPU de Oracle Cloud Infrastructure (OCI) en un acuerdo de varios años. Concretamente, Oracle alquilará decenas de miles de aceleradores GPU Nvidia A100 y H100 de Microsoft para sus necesidades de formación y, especialmente, para la inferencia de sus modelos. El servicio de supercluster OCI también lo utilizan empresas como Cohere o Hugging Face, que trabajan en el desarrollo de grandes modelos lingüísticos (LLM).
Otras noticias que te pueden interesar