L'impiego dell'intelligenza artificiale (IA) è in aumento nel settore finanziario italiano, principalmente nei comparti assicurativo e bancario, con forti livelli di sviluppo e sperimentazione dell'intelligenza artificiale per finalità generali (General-Purpose AI, GPAI). Nel complesso, il 39% di tutti gli intervistati coinvolti nell'indagine condotta nell'ambito del progetto dell'OCSE riferisce di utilizzare l'IA nell'operatività quotidiana. Tra i principali settori finanziari, quello assicurativo presenta la più alta percentuale di impiego dell'IA (70% degli intervistati), seguito dal settore bancario (59% degli intervistati). Il tasso di adozione dell’IA da parte degli operatori dei mercati finanziari è del 31%.
I casi d’uso dell'intelligenza artificiale segnalati con la frequenza maggiore includono l'ottimizzazione dei processi interni e funzioni di supporto che interessano tutti i settori della finanza in Italia. Tra le finalità più importanti sono presenti l'analisi dei dati e la generazione e la sintesi di contenuti testuali, mentre gli altri casi d'uso comunemente segnalati riguardano l'antiriciclaggio/il contrasto al finanziamento del terrorismo (anti-money laundering/counter financing of terrorism, AML/CFT), l'individuazione e la prevenzione delle frodi, nonché l'assistenza alla clientela (chatbot). Nel più ristretto campione rappresentato dagli operatori dei mercati finanziari, il 60% utilizza l'intelligenza artificiale per l'ottimizzazione dei processi interni, la generazione di contenuti testuali e la traduzione. La maggior parte dei casi d’uso di GPAI riportati rimane nella fase di sviluppo e sperimentazione, a indicare un’intensa attività esplorativa.
Nonostante tassi di adozione relativamente più bassi, gli operatori dei mercati finanziari stanno compiendo progressi nella sperimentazione dell'IA e si aspettano di ampliarne l'utilizzo nelle aree principali connesse con i mercati finanziari. I gestori di portafogli hanno segnalato quasi 1.000 casi d’uso dell'intelligenza artificiale in fase di sperimentazione o produzione, dato inferiore solo a quello relativo alle banche. In tutti i settori almeno la metà degli intervistati che già utilizza l'intelligenza artificiale ha segnalato lo sviluppo o la sperimentazione di ulteriori casi d’uso.
I vantaggi dell'IA osservati dalla maggior parte degli intervistati abbracciano diversi settori, compresa l'attività nei mercati finanziari. Tre quarti delle aziende che utilizzano l'intelligenza artificiale hanno segnalato miglioramenti nell'efficienza operativa, mentre quasi due terzi hanno osservato incrementi di produttività e molti hanno citato l'ottimizzazione dei rispettivi processi interni, il miglioramento dei processi decisionali e nuove informazioni analitiche. I miglioramenti in ambiti quali l'efficienza dei processi di riconciliazione delle transazioni o la gestione del rischio di regolamento sono attualmente sottorappresentati.
Tra le imprese italiane che impiegano l'intelligenza artificiale, vi è attualmente una forte dipendenza dai servizi di IA forniti da terzi, con una notevole concentrazione tra i quattro principali fornitori. Quasi il 75 per cento degli intervistati riferisce di utilizzare servizi cloud di terze parti per l'IA, mentre il 39 per cento si avvale di modelli di GPAI implementati da terzi, riflettendo una forte preferenza per le soluzioni supportate dai fornitori. Allo stesso tempo, il 39% delle imprese segnala di non utilizzare componenti gratuite o open source, principalmente a causa di timori per la sicurezza e di un limitato controllo sulla gestione dei dati.
Le imprese stanno adottando approcci eterogenei alla governance dell'IA: molte prevedono un approccio a più livelli che combina molteplici strumenti di governance e meccanismi di gestione dei rischi. Tra tutti i partecipanti all'indagine, il 16% ha introdotto assetti di governance dell'IA specifici, mentre altri hanno adeguato quelli esistenti per gestire i suoi rischi. La metà degli intervistati utilizza la supervisione umana (human-in-the-loop) come principale presidio, rilevando che la maggior parte delle applicazioni ha livelli di autonomia limitati o nulli. La responsabilità dei risultati dell'IA è più spesso attribuita agli utenti dell'area di business, seguiti dalla direzione esecutiva, e poco meno di tre quarti degli intervistati assegnano la responsabilità a una sola funzione. Quasi la metà dei partecipanti non ha ancora adottato alcuna misura di protezione contro le minacce informatiche specifiche dell’IA.
L'incertezza normativa e il potenziale disallineamento delle regole sono i vincoli regolamentari citati comunemente al più ampio impiego dell'IA nella finanza, soprattutto dalle imprese più piccole, a causa delle risorse limitate. Un partecipante all'indagine su cinque ha indicato la mancanza di chiarezza normativa come ostacolo, in particolare per quanto riguarda il recepimento del regolamento dell’UE sull’intelligenza artificiale (AI act) e la sua interazione con la regolamentazione già esistente specifica per il settore, anche nelle attività transfrontaliere. Vengono inoltre segnalati timori in merito alla conformità ai quadri normativi sulla protezione dei dati, alle norme in materia di proprietà intellettuale, ai regolamenti sui rischi derivanti da terzi e sulla resilienza operativa.
Le imprese hanno inoltre segnalato una serie di vincoli di natura non regolamentare legati a fattori organizzativi, culturali e relativi alle competenze, oltre a difficoltà legate ai dati, costi elevati e potenziali impatti negativi dei risultati dell'IA. Un intervistato su quattro ha segnalato criticità nell'attrarre e trattenere personale con competenze in materia di IA, mentre altri hanno citato una mancanza di casi d'uso rilevanti e indicato una comprensione limitata dell'IA tra l'alta dirigenza. Quasi un partecipante all'indagine su tre segnala l'accuratezza e la coerenza dei dati come barriere, mentre uno su quattro riscontra difficoltà ad accedere ai dati necessari e vincoli legati ai costi. Molti intervistati hanno segnalato vincoli relativi ai rischi operativi e di impresa, la dipendenza da terze parti, la limitata trasparenza dei modelli di IA di terzi e il rischio di responsabilità legale o di danni ai clienti.
Le autorità finanziarie italiane stanno già adottando misure per promuovere uno sviluppo e una diffusione dell'intelligenza artificiale sicuri e responsabili nel settore finanziario italiano, all’interno del quadro normativo della UE. Le autorità italiane ricorrono attivamente a una varietà di strumenti e misure per monitorare la diffusione dell'IA nella finanza italiana. Tra questi si annoverano iniziative di supervisione condotte da tutte le autorità finanziarie sotto forma di raccolta dati e ricerca, nonché strumenti di tecnologie di vigilanza (SupTech) in fase di produzione e sviluppo e un ecosistema ben articolato di facilitatori dell'innovazione, che si estende a tutti i principali segmenti dell'attività finanziaria.
Il rapporto delinea una serie di considerazioni di policy principali, volte a catalizzare l'adozione responsabile dell'IA a sostegno di mercati finanziari più efficienti, inclusivi e competitivi. L’obiettivo consiste nel migliorare la competitività dell'economia italiana, mantenendo al tempo stesso un elevato livello di tutela dei consumatori. La maggior parte delle considerazioni è rivolta alle autorità finanziarie italiane, anche attraverso una cooperazione rafforzata con le autorità non finanziarie direttamente coinvolte; alcune sono legate a iniziative normative attualmente in corso a livello di UE e la loro attuazione sarà soggetta all'evoluzione del quadro giuridico europeo.