(Teleborsa) – L’OCSE e Banca d’Italia hanno pubblicato il rapporto finale “L’intelligenza artificiale nei mercati finanziari italiani“, che fornisce per la prima volta una mappatura strutturata dell’adozione dell’IA nel settore finanziario italiano. Il quadro che emerge è quello di un ecosistema in intensa fase esplorativa, con benefici già tangibili ma con rischi di governance, dipendenza da terzi e incertezza normativa ancora da affrontare.
Il 39% degli intervistati dichiara di utilizzare l’IA nell’operatività quotidiana. Il settore assicurativo guida con il 70% degli intervistati, seguito dal bancario al 59%, mentre gli operatori dei mercati finanziari si attestano al 31%. I casi d’uso più frequenti riguardano l’ottimizzazione dei processi interni, l’analisi dei dati, la generazione di contenuti testuali, l’antiriciclaggio, il rilevamento delle frodi e i chatbot per l’assistenza clienti. I gestori di portafogli hanno segnalato quasi 1.000 casi d’uso in fase di sperimentazione o produzione, dato inferiore solo a quello delle banche. “La maggior parte dei casi d’uso di GPAI riportati rimane nella fase di sviluppo e sperimentazione, a indicare un’intensa attività esplorativa”, si legge nel rapporto.
I vantaggi sono concreti: tre quarti delle aziende che utilizzano l’IA hanno segnalato miglioramenti nell’efficienza operativa, mentre quasi due terzi hanno registrato incrementi di produttività. Sul fronte dei rischi, il rapporto segnala una forte dipendenza dai fornitori terzi: quasi il 75% degli intervistati utilizza servizi cloud di terze parti per l’IA e il 39% si avvale di modelli di intelligenza artificiale generale implementati da terzi, con una concentrazione notevole tra i quattro principali provider. Preoccupa inoltre il dato sulla sicurezza informatica: “Quasi la metà dei partecipanti non ha ancora adottato alcuna misura di protezione contro le minacce informatiche specifiche dell’IA”.
Sul fronte della governance, solo il 16% delle aziende ha introdotto assetti specifici per l’IA, mentre altri hanno adeguato quelli esistenti. La metà degli intervistati utilizza la supervisione umana come presidio principale. Un intervistato su cinque indica la mancanza di chiarezza normativa come ostacolo principale, “in particolare per quanto riguarda il recepimento del regolamento dell’UE sull’intelligenza artificiale (AI Act) e la sua interazione con la regolamentazione già esistente specifica per il settore”. Un intervistato su quattro segnala difficoltà nell’attrarre personale con competenze in materia di IA, mentre quasi un terzo indica l’accuratezza e la coerenza dei dati come barriere rilevanti.
Il rapporto delinea infine otto considerazioni di policy principali, tra cui il rafforzamento di una raccolta dati coordinata sull’adozione dell’IA, la promozione di “chiarezza e semplificazione del quadro regolamentare”, l’obbligo per i soggetti vigilati di implementare “misure di governance dell’IA sufficientemente solide” con i consigli di amministrazione chiamati a definire strategie specifiche, e il potenziamento della cooperazione pubblico-privato per favorire “una più ampia diffusione dell’innovazione tramite un’IA responsabile.”qualificato in materia di IA, insieme all’impiego di strumenti di SupTech avanzati basati sull’IA.
Chiara Scotti, Vicedirettrice Generale di Banca d’Italia, ha chiuso i lavori indicando tre priorità: governance, resilienza e transizione dalla sperimentazione all’integrazione. “La responsabilità per l’IA deve risiedere dove risiede l’autorità, ovvero nei consigli di amministrazione e nell’alta dirigenza”, ha sottolineato, avvertendo che le vulnerabilità informatiche “possono diffondersi più rapidamente e meno visibilmente attraverso il sistema” con la crescente dipendenza da fornitori esterni. Ha invitato a integrare scenari legati all’IA nei test di resilienza previsti da DORA – Digital Operational Resilience Act, la normativa europea che stabilisce requisiti uniformi per la resilienza operativa digitale del settore finanziario – e a rendere i facilitatori dell’innovazione più accessibili alle imprese più piccole. Sul rischio di frammentazione europea, il monito: “Se le differenze nelle regole e negli approcci di vigilanza rimangono troppo marcate, il rischio non è solo un’adozione più lenta, ma anche una maggiore frammentazione”
