L’Intelligenza Artificiale è entrata nelle aziende prima che esistesse un’architettura per governarla. È successo in fretta, e in modo decentralizzato: i team di sviluppo, i reparti business, le linee di prodotto hanno iniziato a costruire applicazioni che chiamano un LLM ognuno per conto proprio — la propria chiave API, il proprio contratto col provider, la propria libreria di prompt. Il fenomeno ha già un nome, AI Sprawl, e le conseguenze si vedono: dati sensibili che escono dal perimetro senza che nessuno se ne accorga, costi che si frammentano in una miriade di voci, una conformità alle normative (in primis AI Act e GDPR) che diventa qualcosa difficile da raggiungere.
In Bitrock siamo convinti che la risposta a questa situazione di frammentazione ed eterogeneità incontrollata non sia il rallentamento dell’adozione dell’AI stessa, anzi. La risposta è introdurre un livello di controllo che permetta di innovare, ma con maggior consapevolezza — ovvero, sapere, in ogni momento, quali applicazioni interne stanno parlando con quali modelli, su quali dati, a quale costo, con quali garanzie.
La soluzione che proponiamo, parte delportfolio prodotti del Gruppo Fortitude, è l’AI Gateway di Radicalbit: un punto di passaggio unico tra le applicazioni e i modelli, dove le richieste vengono ispezionate, i dati sensibili mascherati, i costi tracciati e gli audit trail prodotti.
In questo articolo, insieme a Mauro Mariniello, Product Owner di Radicalbit, comprendiamo perché un’azienda enterprise oggi difficilmente può fare a meno di un componente di questo tipo e sveleremo una novità: l’AI Gateway sta per essere rilasciato in open source. Una scelta che ha effetti diretti sul prodotto — apre infatti la strada a estensioni verticali, audit indipendenti, contributi esterni — ma che risulta coerente con il principio di sovranità digitale che il Gruppo Fortitude pone al centro della propria vision.
Shadow AI e AI Sprawl
Oggi, costruire un tool che usi un modello di linguaggio non richiede più un team dedicato e mesi di lavoro: il vibe coding, gli strumenti low-code e la disponibilità di SDK per OpenAI, Anthropic, Google, Mistral e per la galassia dei modelli open source hanno abbattuto la barriera d’ingresso. Un singolo sviluppatore — o un utente business con un minimo di confidenza tecnica — in poco tempo può mettere in piedi un’integrazione che parla con un LLM. Moltiplicato per decine di team o centinaia di iniziative, questo fenomeno produce un ecosistema che si espande in modo non coordinato. È quello che possiamo definire AI Sprawl, ovvero l’adozione incontrollata, disorganizzata e non governata di molteplici strumenti, applicazioni e modelli di Intelligenza Artificiale all’interno di un’azienda, che spesso si intreccia con un secondo fenomeno, più discusso ma spesso semplificato: la Shadow Ahttps://bitrock.it/it/blog-it/shadow-ai-the-hidden-risks-of-unsanctioned-artificial-intelligence.htmlI.
Quando si parla di Shadow AI, il riflesso comune è pensare al dipendente che apre un chatbot pubblico nel browser e ci incolla dentro dati aziendali. È un problema reale, ma che si affronta principalmente a livello di rete, di policy e di formazione: filtri DLP, regole sui domini consentiti, awareness sui comportamenti sicuri.
Un AI Gateway, su questo specifico vettore, fa relativamente poco — ed è giusto riconoscerlo.
Esiste però una seconda faccia della Shadow AI, molto più estesa, che coincide proprio con l’AI Sprawl. Di fatto, la Shadow AI che vive dentro le applicazioni custom costruite dai team interni: tool che chiamano LLM esterni, integrazioni che inviano prompt arricchiti con dati di produzione, agent che orchestrano API senza che il reparto IT sappia esattamente cosa stiano facendo.
Ed è proprio su questo fronte che l’AI Gateway fa la differenza, perché trasforma una proliferazione invisibile in un flusso governato.
I rischi di un’AI non governata
Senza un livello di controllo, l’AI Sprawl si manifesta su dimensioni concrete che incontriamo regolarmente negli assessment con i clienti enterprise. Nello specifico, in ambito:
- Duplicazione. Team diversi costruiscono n. volte la stessa cosa: ogni iniziativa si porta dietro la propria chiave API, il proprio contratto col provider, la propria libreria di prompt, ecc. I costi si frammentano così in voci difficilmente riconducibili a un unico budget AI, il debito tecnico non viene condiviso, e quando un team risolve un problema di prompt injection nessuno degli altri lo viene a sapere.
- Compliance e privacy. Le applicazioni interne maneggiano spesso informazioni che non dovrebbero uscire dal perimetro: PII dei clienti, documenti riservati, proprietà intellettuale, dati finanziari. Quando questi finiscono dentro un prompt diretto a un modello esterno, di norma nessuno ha fatto una valutazione di rischio formale. Per chi ricade nell’AI Act o sotto il GDPR la posizione, davanti a un’ispezione, è scomoda da reggere.
- Invisibilità operativa. L’IT non sa quanti modelli stanno girando, quanti euro al mese si stanno spendendo, quali provider sono coinvolti, dove vanno a finire i dati. Costruire un ROI misurabile su una superficie che non si riesce nemmeno a misurare è un esercizio che, alla prova dei fatti, non è sostenibile.
Radicalbit AI Gateway
Il L’AI Gateway di Radicalbit è dunque un hub centralizzato per integrare facilmente i servizi di AI nelle applicazioni e nelle infrastrutture IT. Funge da punto di ingresso sicuro, osservabile e ottimizzato per le prestazioni per tutto il traffico AI, dove le richieste vengono validate, i dati sensibili mascherati, i prompt malevoli bloccati, i costi tracciati e i comportamenti registrati.
La soluzione garantisce alle aziende conformità e governance per tutte le operazioni AI, fungendo da unico endpoint per la gestione ottimale delle risorse e il controllo dei costi.
Importante novità, è attualmente in corso il rilascio di una versione open source dell’AI Gateway: un passaggio che merita di essere letto nel suo significato strategico.
La spinta che ha portato verso l’open source nasce da una convinzione di fondo: in questo momento storico, l’AI sta ridisegnando il modo in cui le aziende lavorano, prendono decisioni, gestiscono i dati dei propri clienti. Quando una tecnologia ha un impatto di questa portata, l’infrastruttura di governance che la circonda non può essere una scatola chiusa. Deve essere un bene comune, ispezionabile, verificabile, migliorabile da chiunque abbia le competenze per farlo.
Da qui partono tre linee di ragionamento che, per noi, si rinforzano a vicenda.
Democratizzazione: stessa governance, senza barriere d’ingresso
Le grandi aziende hanno le risorse per costruirsi internamente un AI Gateway o per acquistare soluzioni enterprise costose. Le PMI italiane, le startup, le pubbliche amministrazioni, il mondo della ricerca rischiano di restare indietro non perché non abbiano bisogno di governance — ne hanno almeno quanto le grandi — ma perché la barriera d’ingresso è troppo alta. Aprire il codice abbassa drasticamente quella barriera: chiunque può scaricare il Gateway, installarlo, capirlo, adattarlo al proprio contesto, deployarlo on-premise o in cloud privato senza passare da licenze a consumo o da contratti enterprise.
È una scelta che si allinea con il tessuto produttivo italiano ed europeo — fatto in larga parte di PMI e di soggetti pubblici — e con la natura del Gruppo Fortitude, che opera con prodotti made-in-EU e tecnologie aperte come asse della propria proposta di valore.
Trasparenza: niente black box per uno strumento di trasparenza
C’è un argomento quasi paradossale nel chiedere alle aziende di fidarsi di una soluzione proprietaria per controllare e rendere trasparente l’uso dell’AI. L’open source risolve la contraddizione: quello che il Gateway fa con i dati che ci passano dentro è verificabile, riga per riga, da chiunque abbia le competenze per leggerlo. Niente feature nascoste, niente comportamenti opachi, niente telemetria non dichiarata.
Sul tema più ampio della sicurezza vale la pena rovesciare un pregiudizio frequente — quello secondo cui codice pubblico equivarrebbe a codice più vulnerabile. Episodi di cronaca recente, pur partiti come incidenti gravissimi su componenti open source, hanno mostrato qualcosa di diverso: la velocità di reazione di una community globale che produce patch, mitigazioni e analisi pubbliche in pochi giorni è difficilmente eguagliabile in un contesto chiuso. Il principio operativo che ne emerge è quello della security through transparency: nascondere il codice non rende il software più sicuro, lo rende solo più difficile da verificare. Per uno strumento che applica guardrail, masking e controlli su dati sensibili, l’auditabilità indipendente del codice risulta essere un requisito di credibilità.
Costruzione condivisa con la community
Le migliori infrastrutture open source non vengono costruite “per” la community, ma “con” la community. Uno dei principi guida che hanno guidato questa scelta del team di prodotto di Radicalbit e, più in generale, del Gruppo Fortitude.
Il modello di governance del progetto, i canali di contribuzione, la struttura della roadmap aperta sono ancora in fase di definizione. Si prevedono momenti di confronto, anteprime e occasioni per permettere alla community di esprimersi riguardo le direzioni che il progetto prenderà. L’invito esplicito agli sviluppatori, agli architetti software e ai responsabili AI italiani ed europei è di seguire il percorso e di partecipare quando le porte si apriranno.
Open source, sovranità digitale e indipendenza dai vendor
Il tema dell’open source non è separabile da quello della sovranità digitale, che il Gruppo Fortitude ha posto al centro della propria visione. Non si è veramente digitali, sosteniamo, se non si è sovrani del proprio digitale. E non si è sovrani del proprio digitale se la prima cosa che si fa per controllare l’AI è cedere il controllo del livello di controllo a un terzo.
Un AI Gateway open source restituisce una libertà che una soluzione chiusa non può offrire allo stesso livello, e che si declina in pratica su quattro piani.
Sul piano del deployment, il codice si può eseguire on-premise, in cloud privato, in cloud pubblico, in configurazioni ibride: nessuna costrizione tecnica obbliga ad affidarsi a un servizio gestito esterno per uno strumento che, per definizione, dovrebbe difendere il perimetro.
Sul piano dell’ispezione, non c’è nulla che un team di sicurezza non possa leggere — funzioni di masking, regole di routing, guardrail, gestione delle chiavi sono tutte auditabili in modo indipendente, senza richiedere accordi NDA con il fornitore.
Sul piano dell’estensione, le esigenze verticali — guardrail per il settore finanziario, controlli specifici per il sanitario, integrazioni con sistemi legacy — si possono costruire internamente o demandare a un partner di fiducia, senza dover aspettare la roadmap del vendor.
Mentre sul piano dell’uscita, se il progetto dovesse cambiare direzione o l’azienda decidesse di cambiare strategia, il codice rimane: non c’è un meccanismo di lock-in che leghi il funzionamento dell’infrastruttura alla volontà di un singolo fornitore.
In uno scenario europeo dove l’AI Act, il GDPR e la fluidità geopolitica delle policy di fornitura impongono di non dipendere ciecamente da vendor extra-UE, queste libertà sono la differenza tra un’autonomia tecnologica dichiarata e un’autonomia tecnologica reale.
Conclusione
Il rilascio open source dell’AI Gateway di Radicalbit segna un passaggio strategico per il Gruppo Fortitude: rendere il piano di controllo tra applicazioni e modelli AI un bene comune, ispezionabile e adattabile, e dare a PMI, pubbliche amministrazioni e grandi aziende enterprise lo stesso livello di governance senza barriere d’ingresso.
Innovazione e sicurezza non sono alternative: la vera scelta è tra innovare con il controllo e innovare senza, e la differenza la fa l’architettura che si decide di mettere sotto. Un AI Gateway è uno dei primi mattoni della sovranità digitale: il punto da cui far passare ogni dato, ogni prompt, ogni risposta, in modo che l’azienda possa dire con cognizione di causa cosa fa la propria AI, su quali informazioni, a quale costo, con quali garanzie verso clienti e regolatori.
In questo percorso, Bitrock affianca le aziende enterprise nel disegno e nell’implementazione di questo livello di controllo, integrandolo nello stack esistente e nei processi di sviluppo. Per approfondimenti sulla nostra offerta in ambito Applied AI e AI Governance, contattaci!
FAQ- Frequently Asked Questions
Un livello di infrastruttura che si interpone tra le applicazioni aziendali e i modelli di Intelligenza Artificiale. Tutte le chiamate ai modelli passano da lì, in modo che possano essere ispezionate, filtrate, tracciate e governate centralmente.
La Shadow AI, che poi approfondire in un articolo del nostro blog, è il fenomeno per cui dipendenti, team o intere funzioni iniziano a usare strumenti di Intelligenza Artificiale fuori dai processi formali di adozione tecnologica dell’azienda. Ciò si traduce in esposizione su informazioni sensibili e in una tracciabilità impossibile da ricostruire a posteriori. L’AI Sprawl invece, è la proliferazione di applicazioni AI custom costruite internamente dai team senza coordinamento centrale, spesso integrate via API con LLM esterni. Un AI Gateway ha impatto soprattutto sull’AI Sprawl e sulla parte di Shadow AI che vive dentro applicazioni custom.
Per tre ragioni convergenti. Democratizzare l’accesso alla governance dell’AI per soggetti che non possono permettersi soluzioni enterprise. Rendere coerente uno strumento di trasparenza con un’infrastruttura altrettanto trasparente, evitando il paradosso di una black box che dovrebbe garantire visibilità su altre black box. Costruire una roadmap con la community, e non solo per la community.
Al contrario. Per un componente di governance la trasparenza del codice è un vantaggio di sicurezza, non un rischio: rende possibili audit indipendenti, responsible disclosure, validazione esterna.