A menudo se presenta como la arquitectura clave de los entornos nacionales en la nube, Kubernetes agrupa los recursos en la nube de desechos. Macizamente. En línea con un informe publicado el año pasado al mismo tiempo, un estudio realizado por el cast. En términos de memoria, esta relación de usuario alcanza el 23%, apenas mejor que el nivel registrado el año pasado.
Estas tasas de uso muy bajas se explican, en parte, por la tendencia de las empresas a reservar capacidades en la nube más significativas que sus necesidades reales. Con respecto a los recursos de cálculo, el estudio estima al 40% la diferencia entre los recursos aprovisionados y los realmente necesarios. O 3 puntos menos de un año. Con respecto a la memoria, esta diferencia incluso alcanza el 57%, con un punto de 65% para grupos desplegados en Azure. Para Cast.Ai, el 99.94% de los grupos estudiados se benefician de recursos demasiado grandes en comparación con sus necesidades reales (sobre -prisión), lo que resulta en facturas de nubes aumentadas innecesariamente.
Instancias spot: Divida la factura por 2.5
Según los autores de informe Análisis de los resultados, "El uso inadecuado de recursos dentro de los grupos de Kubernetes no está vinculado a un proveedor en particular, sino más a las dificultades inherentes que plantea la gestión manual de estos clústeres.» Una explicación En línea con el que ya se presentó el reparto .i el año pasado.
Según el estudio, incluso más allá de esta mala alineación de los recursos con necesidades reales, las empresas no explotan las ventajas arancelas que proporcionan las instancias detectar. La herramienta del editor estima a un promedio de 59% en promedio los ahorros de costos que las empresas podrían lograr cuyos grupos de Kubernetes pueden ejecutarse en un ensamblaje de instancias spot y entornos a pedido, siendo este último mucho más caro. O una división 2.5 de la factura de la nube asociada con Kubernetes. Un porcentaje que incluso aumenta al 77% si los grupos pueden funcionar exclusivamente en estos entornos a precios reducidos, según las capacidades no utilizadas de los hiperscalers.
Sin embargo, los equipos de TI todavía a veces dudan en jugar esta carta, temiendo las interrupciones inherentes a este modelo. Sobre este tema, el elenco. Ai subraya que es Azure el que presenta la mejor estabilidad Sir el lugar de las instancias, con una duración promedio de nodos de más de 69 horas en estos entornos, contra menos de 8 horas por AWS y menos de 14 horas para GCP.
Otras noticias que te pueden interesar