1. Con la legge 23 settembre 2025, n. 132 – Disposizioni e deleghe al Governo in materia di intelligenza artificiale, di cui ha già dato conto Beatrice Fragasso in questa Rivista, il legislatore è intervenuto anche nel settore della tutela penale del mercato finanziario, la cui operatività è ormai pressoché totalmente affidata a strumenti informatici nonché a sistemi di intelligenza artificiale.
L’intervento si limita alla previsione di due figure (nell’intento legislativo) aggravatrici delle ipotesi-base rispettivamente contemplate nel delitto di aggiotaggio (art. 2637 c.c.) e di manipolazione del mercato (art. 185 TUF).
2. Rammentato che la fattispecie codicistica non concerne gli strumenti finanziari negoziati in mercati regolamentati, sicché quella dell’art. 185 TUF si presenta come la figura di maggior rilievo sul versante politico-criminale, la formula impiegata in entrambe le disposizioni in discorso è identica, consistendo nella locuzione «la pena è della reclusione da due a sette anni se il fatto è commesso mediante l'impiego di sistemi di intelligenza artificiale», con la sola variante che nel citato art. 185 è altresì comminata la multa da euro venticinquemila a euro sei milioni.
Come ognun vede, si è ben lontani dalla configurazione di una disciplina dell’uso dell’intelligenza artificiale e delle eventuali responsabilità che possano discenderne qualora l’impiego sia strumentalmente finalizzato a scopi illeciti, ovvero a ipotesi di usi fraudolenti. Né deve sfuggire anche l’eventuale profilo ‘colposo’, connesso cioè a una condizione d’impiego del sistema d’intelligenza artificiale non adeguatamente ‘istruito’ per evitare che lo stesso proceda al compimento di operazioni in ipotesi riconducibili a quelle che l’art. 12 del regolamento 596/2014 (MAR)[1] identifica come forme di manipolazione del mercato. Le esigenze di sintesi di questa scheda di segnalazione non permettono altro che un rinvio al dibattito in materia[2], segnalando tuttavia che, pur nella consapevolezza della estrema difficoltà di immaginare una disciplina di settore, una possibile strada sembra consistere nella previsione di obblighi di controllo in capo all’utilizzatore/creatore del sistema di intelligenza artificiale[3], secondo uno schema concettuale individuato e approfondito da autorevole dottrina[4]. È verosimile che un problema di tal genere richieda riflessioni ulteriori e che forse la collocazione più adeguata e in un certo qual senso fisiologica di una futura riforma sia all’interno della revisione della disciplina degli abusi di mercato, sicché la scelta in qualche misura ‘minimalista’ del legislatore potrebbe in ciò trovare giustificazione.
3. Una notazione merita tuttavia la presente opzione legislativa. L’aggravio sanzionatorio, che segnala la maggiore offensività del comportamento, deriva dal mero impiego di sistemi di intelligenza artificiale, senza alcuna ulteriore connotazione: il che porta a concludere che il disvalore delle condotte punibili rimane concentrato nella descrizione delle stesse, secondo le cadenze (identiche) impresse dalle due figure d’incriminazione (artt. 2637 c.c. e 185 TUF: diffusione di notizie false o compimento di operazioni simulate o altri artifizi concretamente idonei a provocare una sensibile alterazione). In proposito conviene osservare la nuova aggravante comune (art. 61 n. 11-decies, introdotto dall’art. 26 co. 1 lett. a l. 132/2025) consistente nell’«avere commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato»: agevole avvedersi che a determinare l’inasprimento sanzionatorio non è il mero uso del sistema d’intelligenza artificiale, ma sono connotazioni ulteriori, la prima delle quali allude a un profilo di insidiosità che, a propria volta, deve essere rintracciabile o nella natura specifica del sistema d’intelligenza artificiale utilizzato ovvero alle modalità di impiego dello stesso.
Per tal modo, avendo concentrato il disvalore incrementale nel mero uso del sistema di intelligenza artificiale, sembra plausibile conclusione ritenere che il legislatore abbia ritenuto la materia di manipolazione del mercato/aggiotaggio tanto sensibile alle potenzialità espansive dell’intelligenza artificiale da meritare per ciò solo un più grave trattamento sanzionatorio quando la medesima condotta (ad esempio, il compimento di un’operazione artificiosa o la diffusione di una notizia falsa) avvenga per il tramite di un tale sistema di intelligenza artificiale invece che con un qualunque altro differente mezzo.
Al di là delle perplessità che una siffatta impostazione fomenta, v’è poi da considerare un profilo ulteriore, che, con ogni verosimiglianza, costituisce il cuore di tenebra del problema. I sistemi di intelligenza artificiale ‘forti’ (capaci, cioè, di autoapprendimento costante e di generare decisioni operative) possono (esemplificando e tutt’altro che in teoria) immettere sulle piattaforme informatiche dei mercati ordini per operazioni che integrano le fattispecie descritte nel citato art. 12 MAR (id est: ipotesi di manipolazione del mercato). Ne segue la configurabilità di un fatto penalmente rilevante, della cui responsabilità (oggi aggravata) verrebbe verosimilmente chiamato a rispondere l’utilizzatore del sistema d’intelligenza artificiale, che potrebbe confidare in una difesa dimostrando di aver comunque istruito il sistema a non porre in essere operazioni capaci di integrare le figure descritte nel ricordato art. 12 MAR. Difficile però considerare che uno scenario così complesso e delicato possa esser affidato a valutazioni consegnate a ragionamenti che non trovano riscontri normativi precisi sul piano della disciplina dell’impiego dei sistemi d’intelligenza artificiale. Sicché l’intervento normativo limitato alla previsione di un più severo trattamento sanzionatorio assomiglia a un viandante che inizi la strada dalla fine invece che dal principio.
4. V’è poi un profilo critico inerente alla tecnica legislativa che conviene segnalare. Esso riguarda la modifica apportata all’art. 185 TUF e concerne l’entità del trattamento sanzionatorio.
Come s’è detto in principio, la pena prevista per la fattispecie aggravata è fissata nell’ambito edittale compreso fra due e sette anni di reclusione, replicando pedissequamente quella stabilita per l’omologo caso dell’art. 2637 c.c.. Con una differenza sostanziale, però: che la pena base prevista dall’art. 2637 c.c. va da uno a sei anni di reclusione, mentre quella stabilita dal primo comma dell’art. 185 TUF va da due a dodici anni, in forza dell’aumento stabilito dall’art. 39 l. 28 dicembre 2005 n. 262. Se è indubitabile che l’intenzione del legislatore fosse quella di inasprire la comminatoria penale, è altrettanto vero che l’esito che la disposizione di legge restituisce è di segno opposto. Con un’ulteriore conseguenza (anch’essa, verosimilmente, non voluta, ma che, paradossalmente, restituisce logica interna alla norma). Seguendo il (corretto) percorso argomentativo di Cass. pen. Sez. Un. 27 aprile 2023, n. 17615[5], che ha scrutinato un caso analogo di riscrittura di una disposizione incriminatrice (art. 132 TUB) successiva alla l. 262/2005 senza ‘ribadire’ l’aumento di pena da quella legge disposta, si potrebbe ritenere implicitamente abrogato il citato art. 39 l. 262/2005 e il conseguente raddoppio delle pene da tale disposizione stabilito. In sintesi: la citata ‘svista’, contraddittoria con l’intenzione di aggravare il trattamento sanzionatorio nel caso di impiego dei sistemi di intelligenza artificiale, per una eterogenesi dei fini implicherebbe la riduzione della pena per l’ipotesi-base di manipolazione del mercato ex art. 185 TUF (ora tornata alla misura da uno a sei anni, com’era dopo la modifica apportata dall’art. 9 l. 18 aprile 2005, n. 62 e prima di quella di cui al citato articolo 39 della legge n. 262 del 28 dicembre dello stesso anno 2005) conseguentemente restituendo alla modifica introdotta oggi dall’art. 26 co. 4 l. 132/2025 la sua natura di aggravamento sanzionatorio.
[1] Per comodità di riscontro si trascrivono qui i commi 1 e 2 del citato art. 12 MAR: «1. Ai fini del presente regolamento, per manipolazione del mercato si intendono le seguenti attività: a) l’avvio di un’operazione, l’inoltro di un ordine di compravendita o qualsiasi altra condotta che: i) invii, o è probabile che invii, segnali falsi o fuorvianti in merito all’offerta, alla domanda o al prezzo di uno strumento finanziario, di un contratto a pronti su merci collegato o di un prodotto oggetto d’asta sulla base di quote di emissioni; oppure ii) consenta, o è probabile che consenta, di fissare il prezzo di mercato di uno o più strumenti finanziari, di un contratto a pronti su merci collegato o di un prodotto oggetto d’asta sulla base di quote di emissioni a un livello anormale o artificiale; a meno che la persona che avvia un’operazione, inoltra un ordine di compravendita o ha posto in essere qualsiasi altra condotta stabilisca che tale operazione, ordine o condotta sono giustificati da legittimi motivi e sono conformi a una pratica di mercato ammessa, come stabilito a norma dell’articolo 13; b) l’avvio di un’operazione, l’inoltro di un ordine di compravendita o qualsiasi altra attività o condotta che incida, o sia probabile che incida, sul prezzo di uno o più strumenti finanziari, di un contratto a pronti su merci collegato o di un prodotto oggetto d’asta sulla base di quote di emissioni, utilizzando artifici o qualsiasi altra forma di raggiro o espediente; c) la diffusione di informazioni tramite i mezzi di informazione, compreso Internet, o tramite ogni altro mezzo, che forniscano, o siano idonei a fornire, segnali falsi o fuorvianti in merito all’offerta, alla domanda o al prezzo di uno strumento finanziario, di un contratto a pronti su merci collegato o di un prodotto oggetto d’asta sulla base di quote di emissioni o che consentano, o è probabile che consentano, di fissare il prezzo di mercato di uno o più strumenti finanziari o di contratti a pronti su merci collegati o di un prodotto oggetto d’asta sulla base di quote di emissioni a un livello anormale o artificiale, compresa la diffusione di voci, quando la persona che ha proceduto alla diffusione sapeva, o avrebbe dovuto sapere, che le informazioni erano false o fuorvianti; d) la trasmissione di informazioni false o fuorvianti o la comunicazione di dati falsi o fuorvianti in relazione a un indice di riferimento (benchmark) quando la persona che ha proceduto alla trasmissione o fornito i dati sapeva, o avrebbe dovuto sapere, che erano falsi o fuorvianti, ovvero qualsiasi altra condotta che manipola il calcolo di un indice di riferimento. 2. Le seguenti condotte sono considerate, tra le altre, manipolazione del mercato: a) la condotta di una o più persone che agiscono in collaborazione per acquisire una posizione dominante sull’offerta o sulla domanda di uno strumento finanziario, di contratti a pronti su merci collegati o di un prodotto oggetto d’asta sulla base di quote di emissioni che abbia, o è probabile che abbia, l’effetto di fissare, direttamente o indirettamente, i prezzi di acquisto o di vendita o ponga in atto, o è probabile che lo faccia, altre condizioni commerciali non corrette; b) l’acquisto o la vendita di strumenti finanziari all’apertura o alla chiusura del mercato, con l’effetto o il probabile effetto di fuorviare gli investitori che agiscono sulla base dei prezzi esposti, compresi i prezzi di apertura e di chiusura».
[2] Per tutti, si veda F. Annunziata, Artificial Intelligence and Market Abuse Legislation: A European Perspective ed. Edward Elgar 2023, Id., Intelligenza artificiale e disciplina degli abusi di mercato, in www.orizzontideldiritto commerciale.it, 2024.
[3] Preziosi riferimenti in questo senso in F, Consulich, M. Maugeri, C. Milia, T.N. Poli, G. Trovatore, AI e abusi di mercato: le leggi della robotica si applicano alle operazioni finanziarie, Quaderno Giuridico Consob, 29, maggio 2023, cui si rimanda anche per l’ampia bibliografia.
[4] Il riferimento è, ovviamente, a C. Piergallini, Danno da prodotto e responsabilità penale. Profili dommatici e politico-criminali, Milano, 2004. Lo stesso Autore ha poi ragionato anche in relazione allo specifico tema: v. C. Piergallini, Intelligenza artificiale: da ‘mezzo’ ad ‘autore’ del reato, in Riv. it. dir. proc. pen., 2020, 1743.
[5] V. Cass. pen. Sez. Un. 27 aprile 2023, n. 17615, in Giur. It. 2023, p. 2729, con nota di E. Basile, Tutela del risparmio e abusivismo finanziario: ‘‘lascia o raddoppia?’’. Per le Sezioni unite è abrogato l’incremento sanzionatorio del 2005, ivi, 2730.