Conecta con nosotros

Noticias

El control de costes cloud, uno de los grandes problemas para los equipos de plataforma de empresa

Publicado el

El control de costes cloud, uno de los grandes problemas para los equipos de plataforma de empresa

Los principales obstáculos a los que se enfrentan los equipos de plataforma de empresa en la actualidad son variados, pero generalmente se concentran en tres: los problemas persistentes con los costes del cloud, la productividad de los desarrolladores y la complejidad asociada a Kubernetes. Estos tres factores son un problema para el 93% de ellos.

Así queda reflejado por una investigación de Rafay Systems, que muestra que a pesar de la amplia tasa de adopción de los equipos de plataformas en las organizaciones de TI, los equipos que trabajan con ellas están en muchos casos limitadas por sus dificultades para gestionar entornos cloud y Kubernetes multicluster complejos.

Entre los principales desafíos a los que se enfrentan están la gestión de la visibilidad de los costes, así como el control de los gastos relacionados con la infraestructura cloud y Kubernetes (45%), la complejidad de llevar a cabo la gestión del  ciclo de vida de un cluster de Kubernetes con distintas herramientas (38%) y el establecimiento y mantenimiento de la estandarización en toda la empresa (38%).

Un 31% de los encuestados ha señalado que el coste total de propiedad, incluyendo software y licencias de soporte, así como salarios y recursos, es más elevado que lo presupuestado o previsto.

De cada al futuro, un 60% apuntan a que reducir y optimizar los costes asociados con la infraestructura de Kubernetes sigue siendo una de las principales iniciativas de la alta dirección para el próximo año.

Hay problemas relacoinados con la adopción de las herramientas de IA y de IA generativoa, pero según reconoce la mayoría, la importancia de métodos de despliegue y desarrollo eficientes es crítica. Un 96% subraya la necesidad de contar con aplicaciones de IA, y un 94%, con aplicaciones de IA generativa.

Las organizaciones están dando más prioridad a capacidades clave para sus iniciativas de IA para superar estas barreras. Las cinco principales funciones que están acaparando esta prioridad incluyen los entornos preconfigurados para el desarrollo y la prueba de aplicaciones de IA generativa, la asignación automática de cargas de trabajo de IA a recursos de GPU adecuados, los flujos de MLOps predesarrollados, la virtualización y compartición de GPU y el emparejamiento dinámico de GPU.

Estas capacidades tienen como objetivo aprovechar el desarrollo, optimizar el uso de recursos y gestionar los costes de manera efectiva. Además, las empresas están dando prioridad a la experiencia de los desarrolladores, poniendo cada vez más énfasis en la automatización y el autoservicio, llevándolo tanto a los despliegues de Kubernetes como a las iniciativas relacionadas con la IA.

Las prioridades en este sentido incluyen la automatización del aprovisionamiento de clusteres automatizado (47&), la estandarización y la automatización de la infraestructura (44%) y la oferta de experiencias de autoservicio para desarrolladores (445).

Lo más leído