Bitrock logo

Il Futuro dell’IA è qui: quale Direzione segnerà l’IA Act?

L’intelligenza artificiale ha svolto un ruolo centrale nella trasformazione digitale del mondo, influenzando un’ampia gamma di settori, dall’industria alla sanità, dalla mobilità alla finanza. Questo rapido sviluppo ha accresciuto la necessità e l’urgenza di regolamentare tecnologie che per loro natura hanno importanti e delicate implicazioni etiche. Per questi motivi, nell’ambito della sua strategia digitale, l’UE ha deciso di regolamentare l’Intelligenza Artificiale (IA) per garantire condizioni migliori per lo sviluppo e l’utilizzo di questa tecnologia innovativa. 

Tutto è iniziato nell’aprile 2021, quando la Commissione europea ha proposto il primo quadro giuridico dell’UE sull’IA. La priorità del Parlamento è garantire che i sistemi di IA utilizzati nel Vecchio Continente siano sicuri, trasparenti, responsabili, non discriminatori e rispettosi dell’ambiente. I sistemi di IA devono essere monitorati da esseri umani, piuttosto che dall’automazione, per evitare risultati dannosi.

I principi fondamentali del regolamento sono la responsabilizzazione e l’autovalutazione. Questa legge garantisce che i diritti e le libertà siano al centro dello sviluppo di questa evoluzione tecnologica, assicurando un equilibrio tra innovazione e protezione.

Come siamo arrivati qui? Il 2 febbraio 2024 gli ambasciatori dei 27 Paesi dell’Unione Europea hanno votato all’unanimità l’ultima bozza del testo della legge sull’IA, confermando l’accordo politico raggiunto nel dicembre 2023 dopo difficili negoziati. Il primo documento al mondo sulla regolamentazione dell’intelligenza artificiale si avvicina quindi alla votazione finale prevista per il 24 aprile 2024. È il momento di tenersi aggiornati sugli ultimi sviluppi, ma nel frattempo parliamo di cosa significa per noi.

Classificazione del rischio

L’AI Act ha un approccio chiaro, basato su quattro diversi livelli di rischio:

  • Rischio minimo o nullo
  • Rischi limitati
  • Rischio elevato 
  • Rischio inaccettabile 

Maggiore è il rischio, maggiore è la responsabilità di chi sviluppa o distribuisce sistemi e applicazioni di intelligenza artificiale considerati troppo pericolosi per essere autorizzati. Gli unici casi non coperti dall’AI Act sono le tecnologie utilizzate per scopi militari e di ricerca.

La maggior parte dei sistemi di intelligenza artificiale presenta rischi minimi per i diritti dei cittadini e la loro sicurezza non è soggetta a obblighi normativi specifici. La logica della trasparenza e della fiducia si applica alle categorie ad alto rischio. Queste ultime in particolare possono avere implicazioni molto significative, ad esempio i sistemi di IA utilizzati nei settori della salute, dell’istruzione o del recruitment. 

In casi come i chatbot, vi sono anche specifici requisiti di trasparenza per evitare la manipolazione dell’utente, in modo che quest’ultimo sia consapevole dell’interazione con l’IA. Si pensi ad esempio al fenomeno dei deep-fake, immagini attraverso le quali il volto e i movimenti di un soggetto vengono riprodotti in modo realistico, creando false rappresentazioni difficili da riconoscere.

Infine, è vietata qualsiasi applicazione che comporti rischi inaccettabili, come le applicazioni che possono manipolare il libero arbitrio di un individuo, la valutazione sociale o il riconoscimento delle emozioni al lavoro o a scuola. Un’eccezione va fatta per l’utilizzo di sistemi di identificazione biometrica a distanza (RBI), che possono identificare gli individui sulla base di caratteristiche fisiche, fisiologiche o comportamentali in uno spazio accessibile al pubblico e a distanza da un database.

Le violazioni possono comportare multe che vanno da 7,5 milioni di dollari, o l’1,5% del fatturato globale, a 35 milioni di dollari, o il 7% del fatturato globale, a seconda dell’entità e della gravità della violazione.

L’AI Act come motore di crescita

Per le aziende, l’AI Act rappresenta un cambiamento significativo, in quanto introduce requisiti di conformità diversi a seconda della classificazione del rischio dei sistemi di IA, come già visto in precedenza. Le aziende che sviluppano o implementano soluzioni basate sull’IA dovranno adottare standard più elevati per i sistemi ad alto rischio e affrontare sfide legate alla sicurezza, alla trasparenza e all’etica. Allo stesso tempo, questa legislazione potrebbe fungere da catalizzatore per l’innovazione, spingendo le aziende a esplorare nuove frontiere dell’IA nel rispetto dei principi di responsabilità e tutela dei diritti umani.

L’AI Act può quindi essere un’opportunità per sostenere uno sviluppo virtuoso e più sostenibile dei mercati, sia dal lato della domanda che dell’offerta.  A proposito, non è un caso che usiamo la parola “sostenibile”. Anche l’Intelligenza Artificiale può essere uno straordinario strumento per accelerare la transizione energetica, con concetti che fanno risparmiare non solo tempo ma anche risorse ed energia, come il Green Software incentrato sullo sviluppo di software a minima emissione di carbonio.

L’Intelligenza Artificiale, infatti, permette alle aziende di adattarsi ai cambiamenti del mercato trasformando processi e prodotti, che a loro volta possono cambiare le condizioni del mercato dando nuovo impulso ai progressi tecnologici.

Il presente e il futuro dell’IA in Italia

Gli ostacoli che le piccole e medie imprese italiane incontrano oggi nell’implementare soluzioni che accelerino i loro processi di digitalizzazione sono principalmente di natura economica. Questo perché le misure finanziarie e culturali sono spesso inadeguate. Manca una reale comprensione dell’impatto a breve termine di queste tecnologie e dei rischi di esserne esclusi.

In Italia, la mancanza di finanziamenti per le aziende rischia di ritardare esperimenti più redditizi e sostenibili con l’Intelligenza Artificiale nel breve e nel lungo periodo. Come inevitabile conseguenza, anche l’implementazione delle infrastrutture e dei metodi necessari potrebbe essere ritardata.

Lo stesso AI Act non sarà operativo “da un giorno all’altro”, ma richiederà una lunga fase di emanazione di atti delegati, di identificazione delle migliori pratiche e di stesura di standard specifici.

Tuttavia, è essenziale investire ora in tecnologie all’avanguardia che consentano uno scambio di dati efficiente e allo stesso tempo rispettoso della privacy. Solo così l’Intelligenza Artificiale potrà davvero contribuire alla crescita del Paese.


Fonti
News European Parliament – Shaping the digital transformation: EU strategy explained
News European Parliament – AI Act: a step closer to the first rules on Artificial Intelligence

Vuoi saperne di più sui nostri servizi? Compila il modulo e fissa un incontro con il nostro team!

Skip to content