Mainframe Offloading per la Distribuzione di Dati in Real-time

Back-end & Platform Engineering Solution

contesto

Nel settore finanziario, la trasformazione digitale non è più un’opzione, bensì una necessità strategica per restare competitivi. Le istituzioni che ancora operano su infrastrutture mainframe tradizionali si trovano oggi di fronte a una sfida decisiva: evolvere verso architetture moderne, più agili e in grado di abilitare la distribuzione dei dati in modalità near real-time.

Questo bisogno si manifesta con particolare urgenza nei sistemi core a supporto del business, come le applicazioni di visualizzazione clienti utilizzate nelle filiali. Spesso basate su processi batch e aggiornamenti tramite data warehouse, queste soluzioni non sono più adeguate per rispondere alle aspettative di tempestività e reattività che caratterizzano il mondo bancario di oggi. 

Modernizzare questi flussi, però, non significa rinunciare ai punti di forza dei mainframe, come l’affidabilità, la sicurezza e la robustezza operativa, ma piuttosto integrarli con tecnologie capaci di garantire un accesso ai dati più dinamico, flessibile e in tempo quasi reale.

mainframe

punti critici

  • Dati non aggiornati: l’elaborazione batch introduce ritardi nell’aggiornamento delle informazioni, impedendo una visione in tempo reale dei dati critici
  • Finestra operativa ristretta: i processi batch devono essere eseguiti durante periodi di bassa attività per evitare sovraccarichi, limitando la flessibilità operativa
  • Gestione complessa degli errori: un errore in un processo batch può compromettere l’intero set di dati elaborato, rendendo difficile l’identificazione e la correzione tempestiva dei problemi
  • Scarsa reattività: l’approccio batch non si adatta a scenari che richiedono risposte rapide o elaborazioni in tempo reale, limitando la capacità di risposta dell’azienda

soluzione

Bitrock offre, all’interno del mondo finanziario, una soluzione architetturale innovativa basata sul pattern Lambda Architecture, introducendo uno Speed Layer per abilitare la gestione dei dati in tempo reale. L’architettura si sviluppa attraverso diversi layer funzionali interconnessi: partendo da un sistema di Change Data Capture (CDC) basato su SQDATA, la soluzione monitora costantemente i log DB2/VSAM del mainframe per intercettare le modifiche ai dati. 

Queste vengono poi propagate attraverso un robusto layer di Event & Data Streaming, implementato utilizzando la piattaforma Kafka/Confluent, che si occupa della distribuzione efficiente dei cambiamenti attraverso l’infrastruttura. 

I dati in streaming vengono quindi elaborati mediante KSQL per eseguire le necessarie trasformazioni e aggregazioni, prima di essere indicizzati in Elasticsearch, scelto come motore di ricerca e storage ottimizzato per le query in tempo reale. 

L’intera architettura alimenta infine la nuova interfaccia di visualizzazione clienti, permettendo agli operatori delle filiali di accedere a informazioni sempre aggiornate in near real-time.

vantaggi

  • Accesso immediato alle informazioni dei clienti da parte delle filiali
  • Bilanciamento ottimale del carico di lavoro tra i sistemi
  • Possibilità di sviluppare nuovi business case, basati su dati in tempo reale
  • Riduzione del carico sul mainframe grazie all’architettura distribuita
  • Maggiore efficienza operativa grazie all’eliminazione delle latenze dei batch
  • Architettura scalabile e preparata per futuri use case real-time
Technology Stack and Key Skills​

 

  • Apache Kafka
  • Confluent Platform
  • KSQL
  • Elasticsearch
  • Change Data Capture (CDC)
  • SQDATA
  • DB2
  • VSAM
  • Lambda Architecture
  • Event Streaming
  • Real-time Data Processing
  • System Integration
  • Mainframe Integration

Vuoi saperne di più in merito ai nostri servizi? Completa il modulo e un nostro consulente ti ricontatterà subito!