top of page

Le manipolazioni del mercato e l’intelligenza artificiale: rischio o risorsa?

Aggiornamento: 31 ott

1. Introduzione

L’abuso del mercato, in particolar modo la manipolazione dello stesso, costituisce una delle principali minacce alla stabilità dei mercati.

La tutela del regolare andamento dei mercati finanziari, la fiducia degli investitori e la corretta formazione del prezzo degli strumenti finanziari sono i beni giuridici sottesi alla scelta di sanzionare tali condotte.

Per tale ragione, l’art 185 del Decreto Legislativo n. 58 del 1998, ossia il Testo Unico della Finanza (TUF), sanziona penalmente le manipolazioni del mercato, cioè la diffusione di notizie false e il compimento di operazioni simulate che causano una «sensibile alterazione del prezzo degli strumenti finanziari.» (c.d. price sensitivity).

L’intelligenza artificiale si è inserita in questo quadro già complesso e si manifesta come uno strumento ambivalente.  Da un lato, infatti, agevola la commissione di abusi attraverso tecniche più sofisticate di manipolazione che rendono più complessa la loro rilevazione. Dall’altro, consente l’impiego di mezzi utili per la rilevazione tempestiva degli abusi del mercato.

Sorge quindi spontanea una domanda: l’intelligenza artificiale rappresenta maggiormente una minaccia per la stabilità e l’affidabilità dei mercati finanziari o un’alleata per rendere i mercati stessi più trasparenti e sicuri?

 

 

2. Le fonti normative

Per quanto concerne le fonti normative riguardanti le manipolazioni del mercato e l’intelligenza artificiale (IA), il diritto comunitario riveste senz’altro un ruolo di centrale importanza.

Innanzitutto, con il Regolamento UE n. 596 del 2014 – noto anche come Market Abuse Regulation, ossia MAR – il legislatore comunitario ha inteso uniformare e armonizzare la materia degli abusi di mercato al fine di tutelarne l’integrità. Infatti, nel preambolo di tale Regolamento è statuito che la fiducia degli investitori e il regolare andamento dei mercati sono essenziali. Gli abusi del mercato vengono sanzionati proprio perché ne ledono l’integrità e l’affidabilità.

A completare il quadro è intervenuta la Direttiva UE n. 57 del 2014 – Criminal Sanctions for Market Abuse, anche nota come MAD II – che ha imposto agli stati membri l’adozione di norme volte ad introdurre sanzioni penali per gli abusi di mercato. Nel nostro ordinamento, tale adeguamento è avvenuto mediante la modifica del TUF attraverso la previsione di un doppio binario sanzionatorio in ambito amministrativo e penale. Tale scelta legislativa ha comportato notevoli dibattiti soprattutto riguardo al principio del ne bis in idem disciplinato all’art. 649 del codice di procedura penale che sancisce il divieto di un secondo giudizio per il medesimo fatto.

Tale quadro normativo è stato ulteriormente arricchito e ampliato con il cd. AI Act, vale a dire il Regolamento UE n.1689 del 2024. Tale fonte normativa è di carattere generale e ha lo scopo di garantire la circolazione dei sistemi di IA nel mercato interno attraverso una normativa uniforme a livello comunitario volta a prevenire effetti dannosi derivanti dall’utilizzo dell’intelligenza artificiale.

Nonostante l’AI Act non si riferisca esclusivamente agli abusi di mercato vi sono ugualmente delle ricadute pratiche in tal senso: ad esempio, l’art. 5 di tale regolamento stabilisce le pratiche di IA vietate, tra cui l’uso di tecniche manipolative o ingannevoli. Inoltre, l’art. 74 dello stesso prevede la necessità di vigilanza del mercato e il controllo dei sistemi di IA nel mercato comunitario, stabilendo che tali sistemi siano soggetti a sorveglianza, controllo e reportistica da parte delle autorità competenti in relazione al rispetto delle norme.

Il sistema risulta quindi stratificato e in continua evoluzione, riflettendo le esigenze avvertite in materia di mercato e intelligenza artificiale.

 

 

2.1. Il ruolo del diritto penale nella regolazione dell’intelligenza artificiale

La disciplina comunitaria copre aspetti molto rilevanti ma il diritto penale assume un ruolo centrale, nei casi in cui l’IA faciliti la commissione di reati in ambito finanziario e, in particolare, le manipolazioni del mercato. L’impiego crescente dell’intelligenza artificiale nei mercati finanziari, comportando maggiori rischi per gli investitori, rende necessaria una maggiore regolamentazione, specialmente sul fronte penalistico.

L’intelligenza artificiale in sé e per sé non può essere soggetta alla responsabilità penale. La colpevolezza dell’IA, priva di coscienza e volontà, è concettualmente inattuabile, rendendo la responsabilizzazione diretta una mera illusione. Di conseguenza, il modello più realistico prevede l’attribuzione della responsabilità penale alla persona fisica o giuridica che la utilizza secondo il principio del respondeat superior.

La normativa europea – più precisamente l’AI Act – adotta un approccio basato sul rischio, graduandone le misure. I sistemi ad alto rischio sono consentiti solo qualora soddisfino requisiti molto stringenti, quelli a rischio limitato devono rispettare obblighi di trasparenza mentre, i sistemi a basso rischio possono essere utilizzati liberamente seppur nel rispetto della normativa generale. L’intelligenza artificiale resta oggetto di rischio e la responsabilità ultima è sempre in capo agli individui o agli enti, consolidando così la logica della “command responsibility for AI”.

Alla luce di questi principi, emergono due possibili strategie punitive per l’individuo. Una prima possibilità riguarda la posizione di garanzia: il programmatore o l’utilizzatore che assume un ruolo di controllo sull’IA risponde per il mancato impedimento di eventi dannosi. La responsabilità riguarda la capacità di gestire il rischio tramite programmazione, monitoraggio e presidi tecnici adeguati.  Tuttavia, tale soluzione non è priva di problematiche applicative in quanto, attribuire al garante – e quindi a colui che assume un ruolo di controllo sul presidio tecnologico – la responsabilità per fatti imprevedibili, non sarebbe possibile. Inoltre, nel caso di tecniche di machine learning la condotta illecita non sarebbe imputabile direttamente ed esclusivamente al soggetto che ha fornito l’input.

La seconda strategia punitiva, che trova riscontro nella normativa europea, si baserebbe sulla responsabilità per rischio illecito, ricorrendo allo schema dei reati di pericolo. Poiché l’IA è priva di interessi autonomi, la responsabilità ricadrebbe sul soggetto che, in violazione di norme cautelari (con colpa) o accettando consapevolmente il rischio dell’evento dannoso (con dolo eventuale), impartisce direttive che rendono possibile la commissione dell’illecito. Anche senza rappresentazione diretta dell’evento, l’omissione di presidi tecnici o istruzioni adeguate configura un dolo di pericolo.

In sintesi, la responsabilità penale diretta dell’IA appare oggi impraticabile. La tutela passa quindi dalla responsabilità degli utilizzatori e dalla regolazione basata sulla gestione del rischio, integrando così logiche di prevenzione.

 

 

3. L’intelligenza artificiale come rischio nelle manipolazioni del mercato

L’uso dell’intelligenza artificiale nei mercati finanziari comporta indubbi vantaggi in termini di rapidità nella rilevazione delle condotte, capacità predittiva e, conseguentemente, riduzione dei costi. Tuttavia, questo stesso strumento può essere impiegato a fini illeciti dando luogo a nuove forme di manipolazione del mercato difficili da individuare e da ricondurre agli schemi tradizionali.

Si distinguono sistemi di AI c.d. deboli e forti. Il Quaderno giuridico della Consob (Commissione Nazionale per le Società e la Borsa ossia l’Autorità italiana per la vigilanza dei mercati finanziari) n. 29 del 2023 statuisce che i sistemi di AI deboli sono sistemi i cui «outputs dipendono dalle istruzioni prestabilite da produttori, programmatori o utenti», mentre, i sistemi di AI forti «producono outputs autonomi e imprevedibili rispetto agli inputs iniziali di produttore, programmatore o utente».

I rischi per l'integrità dei mercati derivanti dal comportamento dei sistemi di IA sono percepiti in misura maggiore nell'ambito del trading. In particolare, i rischi principali riguardano i sistemi utilizzati nell’High-Frequency Trading (HFT).

Secondo la definizione fornita dalla Consob il trading algoritmico «è una modalità di negoziazione basata sull'utilizzo di algoritmi e programmi informatici, in genere molto complessi, che raccolgono ed elaborano le informazioni e i dati di mercato in tempo reale e avviano in automatico gli ordini – di vendita o di acquisto di strumenti finanziari – sulle diverse piattaforme di negoziazione. Quando viene svolto a velocità molto elevata prende il nome di trading ad alta frequenza o high-frequency trading».

L’utilizzo di sistemi di AI forti che sono basati sull’apprendimento automatico – come ad esempio il deep learning, e il reinforcement learning – nell’ambito dei mercati finanziari amplifica i rischi. Questo perché le strategie diventano opache, difficili da spiegare per gli intermediari finendo così per aumentare la probabilità di comportamenti manipolativi non intenzionali. Proprio per le difficoltà derivanti dalla gestione di tali rischi, alcuni intermediari europei evitano l’adozione di AI forti.

 

 

3.1. La manipolazione operativa e informativa

Il reato di cui all’art. 185 TUF può essere compiuto attraverso due modalità ossia per mezzo di manipolazioni operative e informative.

La manipolazione operativa punisce il compimento di tutte quelle operazioni che traggono in inganno gli investitori generando segnali falsi o fuorvianti sulla formazione dei prezzi, influenzando così il processo di corretta formazione degli stessi.

Ciononostante, l’art. 12, par. 1, lett. a) e b) Reg. MAR consente tali manipolazioni attraverso la giustificazione per legittimi motivi e conformità ad una prassi di mercato ammessa. Nondimeno, i sistemi di AI forti, opachi e auto-apprendenti, rendono più complessa la verifica dei legittimi motivi e il rispetto della disciplina.

Il Regolamento MAR prevede altresì esempi specifici di condotte manipolative per contrastare i rischi dell’HFT. Tuttavia, tali esempi si rivelano senz’altro utili per cogliere i comportamenti dei sistemi di AI deboli ma, non risolvono pienamente i rischi derivanti dall’utilizzo dell’AI forte.

La manipolazione informativa sanziona invece la diffusione di notizie false e, quindi, punisce tutte quelle condotte che divulgano informazioni false o fuorvianti, incluse quelle generate tramite AI forte o deepfake che sono capaci di influenzare il mercato anche senza il compimento di operazioni dirette.

La fattispecie di manipolazione informativa prevista dal MAR comprende altresì la manipolazione che avviene attraverso l’utilizzo dei social media. I social hanno infatti mutato la modalità di diffusione delle informazioni, rendendola rapida e decentralizzata e permettendo potenzialmente a ciascun utente di essere produttore di notizie. La combinazione di queste dinamiche con i traders algoritmici può avere effetti sistemici sulla stabilità del mercato. Ad esempio, i traders algoritmici possono basare le loro decisioni di investimento sulla frequenza con cui il nome di uno strumento finanziario appare nei canali di comunicazione, producendo in questo modo una distorsione del prezzo.

Il fenomeno della diffusione sistematica e massiva di informazioni false e fuorvianti – c.d. mass disinformation – è particolarmente dannoso per la fiducia degli investitori e il valore del mercato.

In sintesi, l’attuale quadro normativo riconosce e sanziona molte forme di manipolazione operativa e informativa ma, la diffusione di AI forte, introduce sfide significative non solo nella regolamentazione ma altresì nell’accertamento e nella punibilità di tali condotte.

 

 

4. L’intelligenza artificiale come risorsa per la prevenzione e il contrasto delle manipolazioni del mercato

L’intelligenza artificiale, che può essere impiegata come strumento per il compimento di condotte manipolative, rappresenta al tempo stesso una potente alleata delle Autorità di vigilanza per il contrasto degli abusi del mercato.

In primo luogo, l’IA consente di analizzare grandi moli di dati in tempi ridotti. Gli stessi algoritmi di machine learning – cioè di apprendimento automatico – che, come visto precedentemente, si possono rivelare dannosi, permettono di rilevare schemi ricorrenti, anomalie nei flussi di negoziazione e comportamenti che potrebbero costituire indizio di manipolazione.

Sul piano istituzionale, vi sono già esperienze significative. La Consob, così come l’ESMA (European Securities and Markets Authority) a livello europeo stanno sperimentando strumenti basati sull’IA per affinare le proprie capacità di vigilanza.

La Consob si avvale di sistemi utili a rilevare automaticamente comportamenti anomali, pattern sospetti o segnali deboli di manipolazione.  Inoltre, utilizza modelli predittivi volti a prevedere situazioni di rischio o potenziali abusi.

Nel comunicato del 6 agosto 2025, la Consob ha riconosciuto essa stessa che l’IA può aumentare celerità ed efficienza delle analisi, rimanendo però un mero strumento di supporto all’analista, al quale spetta la decisione finale.

 

 

5. Conclusioni

Alla luce delle considerazioni emerse non è possibile affermare con certezza se l’intelligenza artificiale rappresenti maggiormente un rischio o una risorsa nell’ambito delle manipolazioni di mercato. È però indubbio che essa comporti potenziali pericoli in relazione al compimento di nuove forme di reati ma, al tempo stesso, offre opportunità significative.

L’IA può contribuire a rendere l’attività di vigilanza più efficiente, colmando, almeno in parte, le difficoltà derivanti dalla complessità e la velocità dei mercati finanziari. Ciò detto, rimane comunque imprescindibile garantire la trasparenza e la verificabilità degli algoritmi utilizzati durante le attività di vigilanza affinché la possibile opacità dei sistemi utilizzati non comprometta la legittimità dell’azione di controllo.       

In definitiva, ciò che davvero conta è che l’uomo mantenga sempre il primato decisionale: l’IA può essere un supporto prezioso, ma resta pur sempre uno strumento a servizio dell’essere umano.

Tale considerazione emerge anche dall’AI Act stesso che si pone come scopo quello di incoraggiare l’utilizzo di un «intelligenza artificiale antropocentrica» che non possa minare il rispetto delle garanzie costituzionali e comunitarie.

 

 

 

 

Bibliografia

  • Arrigoni M., Intelligenza artificiale e manipolazione informativa del mercato finanziario, in Rivisita di Diritto Bancario, 2024

  • Consulich F. et al., AI e abusi di mercato: le leggi della robotica si applicano alle operazioni finanziarie?, in Quaderni Giuridici Consob, 29/2023, pp. 23-27, 46-61 e 78-88

  • Derius P. – Racioppi S., Riflessioni in tema di intelligenza artificiale e attività di vigilanza, in Quaderni Fintech Consob, 15/2025, pp. 15-27, 55-69


 

 

 

bottom of page