A Fondo
Cómo hemos conseguido modernizar el mainframe…y evitar su muerte
Los analistas tecnológicos llevan años prediciendo la “muerte” del mainframe. Parece lógico. En un mundo que cada vez mira más al cloud y en el que la mayoría de las empresas están haciendo lo posible por deshacerse de sus infraestructuras legacy, el mainframe es a la vista de muchos, una “reliquia” de pasado.
Nada más lejos de la realidad. Según un reciente informe de IBM, el mainframe no solo no ha desaparecido, sino que el 75% de los mayores bancos del mundo, han incorporado el Z15, la última generación de mainframes desarrollados por la multinacional americana. Y lo que es más: para la empresa , el negocio asociado al mainframe ha crecido nada menos que un 68% con respecto al último año.-
¿De qué forma se explica esa renovada vitalidad? En primer lugar, teniendo en cuenta que aunque es cierto que el “Big Iron” no ha muerto, ha evolucionado, pasando de apostar por sistemas operativos antiguos y cada vez más difíciles de mantener a un core Linux, que por un lado garantiza la estabilidad de sistemas pensados para perdurar y por el otro, facilita el despliegue de aplicaciones modernas.
Así, en la últimas década, hemos visto cómo muchas empresas que tenían mainframes con grandes bases de datos sobre Solaris, han migrado a un Linux mucho más fácil de mantener y gestionar…beneficiándose en el caso de las compañías que apuestan por IBM, de la gran inversión que está haciendo Red Hat para modernizar la infraestructura IT de las empresas en este campo.
¿Puede Red Hat modernizar el mainframe?
Que IBM decidiese invertir nada menos que 34.000 millones de dólares en la adquisición de Red Hat, le vino realmente bien al futuro de estas máquinas. En primer lugar, la compañía de software libre no tardó en adaptar Red Hat Enterprise Linux y Red Hat Open Shift a las particularidades que el hardware que presentan.
Poco después, la empresa presentó Red Hat Ansible Certified Content para los IBM Z, y Wazi Workspaces, una nueva plataforma que permite a los desarrolladores llevar herramientas propias del mainframe a plataformas multicloud optimizadas para OpenShift.
A esto hay que sumar que la propia Linux Foundation sigue trabajando y promocionando su Open Mainframe Project, lo que ha permitido que los desarrolladores puedan tener a disposición un enorme número de herramientas a la hora de conectar los desarrollos más modernos de cloud pública, con esa gran cantidad de información que se procesa “en local”. Se acabó por lo tanto el tener que trabajar con aplicaciones propietarias que con el paso de los años se quedan sin soporte.
Y sí, puede que en gran parte, el mainframe siga siendo esa máquina “aburrida” cuya “única función” sea almacenar enormes cantidades de datos para empresas que se encuentran principalmente en el sector financiero pero también lo es que, como apunta Gartner, está apuntando a nuevas direcciones.
Los nuevos escenarios: Confidential Computing, Pago por uso, Inteligencia Artificial
Uno de los escenarios que se abren lo que parece ser una nueva etapa en la historia del mainframe es lo que IBM ha bautizado como ”Confidential Computing”. Para la multinacional, este sería un tipo de computación que permite proteger datos, aplicaciones y procesos, a gran escala. Para ponerlo en valor, IBM ya ha posicionado algunos productos en el mercado. Por ejemplo, IBM Secure Execution for Linux, permite a los clientes aislar y proteger un gran número de cargas de trabajo de amenazas internas y externas en un entorno de nube híbrida.
Ese mismo concepto, el que el mainframe pueda ser el vehículo ideal para proteger enormes cantidades de información altamente sensible, también ha sido abordado por el Linux Foundation en su “Confidential Computing Consortium” del que forman parte empresas como Alibaba, Arm, Baidu, IBM/Red Hat, Intel, Google Cloud o Microsoft.
Otro escenario hacia el que se está moviendo el “Big Iron” es a modelos de pago por uso, de modo que contar con este tipo de máquinas no esté solo al alcance de unas pocas empresas. Finalmente como también explica Gartner, tecnologías como el machine learning o incluso la Inteligencia Artificial podrían encontrar en estas máquinas nuevos aliados.
Y es que bancos, centros sanitarios, aseguradoras y otras empresas en los que el mainframe ha “sesteado” durante los últimos años, están descubriendo que incluso para ellos la información con la que tienen que trabajar se está multiplicando de forma exponencial y que para ofrecer un mejor servicio al cliente, van a tener que contar con nuevos tecnologías que sobre sus propios mainframes, puedan acceder a más y mejores insights.
Por supuesto esto no quiere decir que al mainframe no le queden desafíos por superar. El principal por supuesto, está representado por las grandes Big Tech del ecosistema cloud, empeñadas como están en llevar cuanto más datos mejor a sus respectivas nubes.
Tanto AWS como Google y Microsoft están haciendo lo posible para desarrollar aplicaciones que permitan a las empresas mover esas cargas de trabajo “obsoletas” al cloud. Al mismo tiempo, está creciendo el número de servicios y firmas que hacen esta transición posible, siendo Cornerstone, Astadia, Asysco, GTSoftware o Micro Focus, algunas de las más destacadas.
-
OpiniónHace 6 días
10 predicciones para los proveedores de servicios gestionados en 2025
-
NoticiasHace 2 días
El Capitan es el nuevo superordenador más potente y rápido del mundo
-
NoticiasHace 6 días
AMD despedirá al 4% de su plantilla mientras se centra en IA y centros de datos
-
NoticiasHace 6 días
La Comisión Europea multa a Meta con 798 millones por perjudicar a la competencia de Marketplace