Oggi i mainframe sono ancora ampiamente utilizzati in settori incentrati sui dati come quello bancario, finanziario e assicurativo. 92 delle 100 banche più importanti al mondo si affidano a queste tecnologie legacy e si ritiene che siano responsabili del 90% di tutte le transazioni globali con carta di credito (fonte: Skillsoft).
Si tratta di una situazione non ottimale, poiché affidarsi ai mainframe genera costi operativi elevati, calcolati in MIPS (milioni di istruzioni al secondo). Una grande istituzione può spendere più di 16 milioni di dollari all’anno, stimando il costo di un mainframe da 15.200 MIPS (fonte: Amazon Web Services).
Inoltre, i mainframe presentano complessità tecniche, come la dipendenza dal linguaggio di programmazione COBOL, vecchio di 60 anni. Per le organizzazioni, questo significa non solo una minore accessibilità ai dati e scalabilità dell’infrastruttura, ma anche il problema di trovare programmatori COBOL qualificati a costi ragionevoli – maggiori informazioni qui. Inoltre, poiché i consumatori sono ormai abituati a sofisticati servizi digitali on-demand – potremmo chiamarlo “effetto Netflix” – tutto deve essere disponibile immediatamente e ovunque. Pertanto, i servizi bancari, come il trading, l’home banking e le relazioni finanziarie, devono tenere il passo e offrire affidabilità e prestazioni elevate. Per fare ciò, grandi volumi di dati devono essere rapidamente accessibili ed elaborati da applicazioni web e mobili: i mainframe potrebbero non essere la risposta.
L’Offloading del mainframe in soccorso
L’offloading del mainframe può risolvere l’enigma. Consiste nel replicare i dati del mainframe su un database parallelo, possibilmente open source, a cui si può accedere in modo più agile risparmiando costosi MIPS. Come una sorta di “gemello digitale” del mainframe, l’archivio dati replicato può essere utilizzato per l’analisi dei dati, le applicazioni, i servizi cloud e altro ancora.
Questa forma di replica del database offre vantaggi significativi sia in termini di flessibilità che di riduzione dei costi. Ogni volta che un’applicazione o un servizio ha bisogno di leggere i dati dei clienti, può accedere al database parallelo senza dover pagare i costosi MIPS del mainframe. Inoltre, il semplice offloading apre la strada a una migrazione progressiva verso il cloud, ad esempio comportando la replica bidirezionale delle informazioni tra il database cloud open source e il datacenter.
L’offloading dei dati dal mainframe richiede strumenti middleware per la migrazione e l’integrazione. Apache Kafka può essere sfruttato come soluzione affidabile per lo streaming di eventi e l’archiviazione dei dati, grazie alle sue capacità di log distribuito e replicato. È in grado di integrare diverse sorgenti di dati in un’architettura scalabile con componenti loosely coupled.
Oltre alla piattaforma di streaming di eventi, è necessario considerare anche gli strumenti CDC (Change Data Capture) per trasferire le modifiche dei dati dal mainframe alla piattaforma di streaming. Il CDC è un processo software che identifica e traccia automaticamente gli aggiornamenti in un database. Consente di superare le limitazioni dell’elaborazione batch dei dati a favore di un trasferimento quasi in tempo reale. Mentre IBM e Oracle offrono strumenti CDC proprietari, come InfoSphere Data Replication e Oracle Golden Gate, sono disponibili anche soluzioni di terze parti e open-source, come Qlik Data Integration (precedentemente noto come Attunity) e Debezium.
Dall’ Offloading al Replacement
Come processo euristico di perfezionamento, l’offloading del mainframe può anche essere visto come un punto di partenza per la sostituzione vera e propria del mainframe, con applicazioni e sistemi bancari core mission-critical eseguiti nel cloud. Ciò significa che la costosa architettura monolitica lascia il posto alla modernizzazione e a soluzioni cloud native a prova di futuro.
Tuttavia, la sostituzione di un mainframe non è un compito facile né rapido. Nel suo articolo sul blog “Mainframe Integration, Offloading and Replacement with Apache Kafka“, Kai Waehner ipotizza un piano graduale di 5 anni. In primo luogo, Kafka viene utilizzato per il disaccoppiamento tra il mainframe e le applicazioni già esistenti. Poi, vengono costruite nuove applicazioni e microservizi basati sul cloud e integrati nell’infrastruttura. Infine, alcune o addirittura tutte le applicazioni mainframe e le funzionalità mission-critical vengono sostituite con la tecnologia moderna.
Va detto che spesso non è possibile abbandonare del tutto i mainframe. Per le istituzioni più grandi, come le grandi banche, i costi e gli inconvenienti di una migrazione completa potrebbero essere troppo elevati. Realisticamente parlando, lo scenario più efficace sarebbe un’infrastruttura ibrida in cui alcune funzionalità bancarie fondamentali rimangono legate al mainframe e altre vengono migrate su un’infrastruttura multi-cloud.
Come Bitrock può aiutarti
Data la complessità dell’operazione, è fondamentale lavorare con un partner specializzato che abbia una profonda esperienza in materia di offloading e migrazione legacy. In Bitrock abbiamo lavorato con importanti organizzazioni per aiutarle a modernizzare l’infrastruttura, a risparmiare sui costi e a supportare la loro transizione al cloud nativo. A titolo di esempio, abbiamo realizzato un progetto di offloading del mainframe per un’importante società di credito al consumo, trasferendo i dati da un DB2 legacy a un più recente database Elastic. Grazie alla piattaforma Confluent e a un sistema CDC, i dati vengono ora intercettati e trasferiti in tempo reale dal sistema centrale al database front-end, consentendo casi d’uso avanzati.
Se vuoi saperne di più su questa storia di successo o su come possiamo aiutarti nel vostro viaggio dal legacy al cloud, non esitare a contattarci!