Intelligenza Artificiale e Codice Penale: le nuove sanzioni fino a 5 anni di reclusione

La legge n. 132/2025 introduce reati specifici per i deepfake e l’uso illecito dell’IA: ecco cosa cambia per cittadini e imprese

Il 3 novembre 2025 è entrata in vigore la legge n. 132/2025, che segna una svolta storica nel rapporto tra intelligenza artificiale e diritto penale italiano. Per la prima volta, il nostro codice penale si dota di strumenti specifici per contrastare gli abusi legati all’uso dei sistemi di IA, introducendo nuove fattispecie di reato e aggravanti che possono portare a pene fino a cinque anni di reclusione.

La scelta italiana è coraggiosa e innovativa: mentre il Regolamento europeo sull’intelligenza artificiale (AI Act) prevede esclusivamente sanzioni amministrative, il nostro legislatore ha deciso di affiancare a queste anche una risposta penale, ritenuta necessaria per tutelare efficacemente i diritti fondamentali delle persone.

L’approccio italiano: responsabilità penale accanto alle sanzioni amministrative

La legge n. 132/2025 si inserisce in un contesto normativo già definito a livello europeo dal Regolamento (UE) 2024/1689, noto come AI Act. Quest’ultimo ha introdotto un sistema articolato di sanzioni amministrative, affidando agli Stati membri il compito di vigilare sulla corretta applicazione delle norme attraverso autorità nazionali competenti.

Tuttavia, il legislatore italiano ha ritenuto che le sole sanzioni amministrative non fossero sufficienti a proteggere beni giuridici fondamentali come la libertà personale, la dignità individuale e l’integrità dei processi democratici. Da qui la scelta di introdurre vere e proprie fattispecie penali, capaci di offrire una tutela più incisiva e una maggiore capacità deterrente.

L’impostazione scelta dal nostro Paese mira a trovare un equilibrio tra innovazione tecnologica e tutela dei diritti: non si vuole frenare lo sviluppo dell’intelligenza artificiale, ma ricondurre sempre i comportamenti nell’alveo della responsabilità umana. L’IA può essere uno strumento straordinario, ma deve rimanere sotto il controllo e la responsabilità delle persone che la utilizzano.

La nuova circostanza aggravante comune per i reati commessi con l’IA

Una delle principali novità introdotte dalla legge riguarda l’articolo 61 del codice penale, che disciplina le circostanze aggravanti comuni. È stata aggiunta una nuova aggravante, il numero 11-undecies, che si applica quando un reato viene commesso mediante sistemi di intelligenza artificiale, in tre specifiche situazioni.

La prima ipotesi riguarda i casi in cui i sistemi di IA, per la loro natura o per le modalità con cui vengono utilizzati, costituiscono un mezzo insidioso. Si pensi, ad esempio, all’utilizzo di bot sofisticati che si spacciano per persone reali per ingannare le vittime, oppure all’impiego di algoritmi che sfruttano vulnerabilità psicologiche per manipolare le scelte altrui.

La seconda situazione ricorre quando l’impiego dell’intelligenza artificiale ha ostacolato la difesa, sia pubblica che privata. In questo caso, l’aggravante si applica quando l’uso della tecnologia ha reso più difficile scoprire il reato, identificare il responsabile o raccogliere le prove necessarie per difendersi. L’automazione e la complessità dei sistemi di IA possono, infatti, creare una vera e propria cortina fumogena che impedisce di ricostruire l’accaduto.

La terza e ultima ipotesi si verifica quando l’impiego dei sistemi di intelligenza artificiale ha aggravato le conseguenze del reato. Un esempio concreto potrebbe essere l’utilizzo di IA per amplificare su scala massiva la diffusione di contenuti diffamatori o per rendere particolarmente incisive e pervasive campagne di disinformazione.

Questa aggravante ha carattere generale e può quindi applicarsi a qualsiasi reato: dal furto informatico alla diffamazione online, dalla frode alle lesioni personali. L’effetto pratico è un aumento della pena prevista per il reato base, con conseguenze significative sul piano sanzionatorio.

La protezione del voto democratico: l’aggravante per attentati ai diritti politici

La tutela della democrazia rappresenta uno degli obiettivi prioritari anche del Regolamento europeo sull’IA. Per questo motivo, la legge n. 132/2025 ha introdotto una specifica aggravante a effetto speciale per il delitto di attentati contro i diritti politici del cittadino, previsto dall’articolo 294 del codice penale.

Questa disposizione punisce chiunque, con violenza, minaccia o inganno, impedisce in tutto o in parte l’esercizio di un diritto politico, oppure determina qualcuno a esercitarlo in modo diverso dalla sua volontà. I diritti politici tutelati sono quelli che permettono ai cittadini di partecipare all’organizzazione dello Stato, in particolare il diritto di voto attivo e passivo.

Con la nuova aggravante, se l’inganno viene posto in essere mediante l’impiego di sistemi di intelligenza artificiale, la pena prevista passa dalla reclusione da uno a cinque anni alla reclusione da due a sei anni. Si tratta di un inasprimento significativo, che riflette la particolare gravità di condotte che minacciano il cuore stesso del processo democratico.

Pensiamo, ad esempio, ai deepfake video che mostrano un candidato politico mentre pronuncia frasi mai dette, ai bot che diffondono massivamente notizie false sulle modalità di voto, o agli algoritmi che manipolano le informazioni mostrate agli elettori per influenzarne le scelte. Sono tutti scenari concreti che questa norma intende contrastare con fermezza.

La giurisprudenza ha chiarito che il reato di cui all’articolo 294 del codice penale è un reato di evento e non di mera condotta, per cui è possibile anche il tentativo. Questo significa che la legge punisce non solo chi riesce effettivamente a impedire o alterare l’esercizio del diritto politico, ma anche chi ci prova senza riuscirci.

Il nuovo reato di diffusione illecita di contenuti generati o manipolati con l’IA

La novità più rilevante della legge n. 132/2025 è senza dubbio l’introduzione del nuovo articolo 612-quater nel codice penale, che crea una fattispecie penale autonoma dedicata alla diffusione illecita di contenuti generati o manipolati mediante intelligenza artificiale.

Questo nuovo delitto, collocato tra i delitti contro la libertà morale, punisce con la reclusione da uno a cinque anni chiunque cagioni un danno ingiusto a una persona cedendo, pubblicando o diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale, purché tali contenuti siano idonei a trarre in inganno sulla loro genuinità.

La norma nasce per contrastare il fenomeno dei cosiddetti deepfake, ovvero contenuti multimediali creati o manipolati attraverso l’intelligenza artificiale in modo così realistico da risultare praticamente indistinguibili da quelli autentici. La tecnologia ha raggiunto livelli talmente sofisticati che è possibile creare video in cui una persona sembra dire o fare cose che in realtà non ha mai detto o fatto.

Le situazioni concrete sono molteplici e spesso drammatiche. Si va dai deepfake a sfondo sessuale, che possono rovinare la reputazione di una persona e causarle gravi danni psicologici, ai contenuti falsi utilizzati per screditare professionisti, imprenditori o politici. Un esempio particolarmente odioso è quello del revenge porn potenziato dall’IA: immagini o video intimi creati artificialmente per vendicarsi di un ex partner.

Per integrare il reato, devono sussistere tre elementi fondamentali. Primo, il contenuto deve essere stato generato o manipolato mediante sistemi di intelligenza artificiale. Secondo, la diffusione deve avvenire senza il consenso della persona rappresentata. Terzo, e questo è l’elemento più delicato, deve essere cagionato un danno ingiusto alla persona.

Il concetto di “danno ingiusto” richiama il principio generale della responsabilità civile previsto dall’articolo 2043 del codice civile. In altre parole, chi causa un danno ad altri è tenuto a risarcirlo, e qui il legislatore ha voluto estendere questa tutela anche al piano penale. Il danno può essere di varia natura: lesione della reputazione, della dignità personale, dell’immagine professionale, con conseguenze anche di tipo psicologico ed economico.

Un ulteriore elemento richiesto dalla norma è che i contenuti siano “idonei a trarre in inganno sulla loro genuinità”. Non basta, quindi, che si tratti di contenuti falsi: devono essere talmente ben fatti da poter ingannare un osservatore medio. Questo requisito serve a escludere dalla punibilità contenuti palesemente artefatti o caricaturali, che nessuno potrebbe scambiare per veri.

Il delitto è normalmente punibile a querela della persona offesa, il che significa che il procedimento penale può iniziare solo se la vittima decide di presentare formale denuncia. Tuttavia, la legge prevede tre eccezioni in cui si procede d’ufficio, anche senza querela. La prima eccezione riguarda i casi in cui il fatto è connesso con un altro delitto per il quale si deve comunque procedere d’ufficio. La seconda si applica quando il reato è commesso nei confronti di una persona incapace, per età o per infermità: in questi casi, la particolare vulnerabilità della vittima giustifica l’intervento immediato dello Stato. La terza ipotesi riguarda i contenuti diffusi contro una pubblica autorità a causa delle funzioni esercitate, per tutelare il libero svolgimento dell’attività istituzionale.

Si tratta chiaramente di un reato doloso, che richiede cioè la volontà di compiere l’azione sapendo che si sta diffondendo un contenuto falso o alterato e che questo può causare un danno alla persona rappresentata. Non è sufficiente la semplice negligenza o imprudenza.

Aggiotaggio e manipolazione del mercato nell’era degli algoritmi

L’intelligenza artificiale ha rivoluzionato anche i mercati finanziari. Gli algoritmi di trading ad alta frequenza e i sistemi predittivi basati sull’IA sono ormai strumenti diffusi tra gli operatori professionali. Tuttavia, proprio questi strumenti possono essere utilizzati per compiere illeciti finanziari su scala senza precedenti.

La legge n. 132/2025 ha introdotto aggravanti specifiche per i reati di aggiotaggio e manipolazione del mercato quando vengono commessi mediante l’impiego di sistemi di intelligenza artificiale.

Per quanto riguarda l’aggiotaggio, disciplinato dall’articolo 2637 del codice civile, il reato si configura quando qualcuno diffonde notizie false o pone in essere operazioni simulate per alterare il prezzo di strumenti finanziari non quotati o per minare la fiducia nella stabilità patrimoniale di banche. Con l’introduzione dell’aggravante, se il fatto è commesso mediante sistemi di IA, la pena passa dalla reclusione da uno a cinque anni alla reclusione da due a sette anni.

Analogamente, per il reato di manipolazione del mercato previsto dall’articolo 185 del Testo Unico dell’Intermediazione Finanziaria, è stata introdotta un’aggravante a effetto speciale con la stessa cornice edittale: da due a sette anni di reclusione quando la condotta è posta in essere attraverso l’IA.

I pericoli sono concreti e attuali. I modelli generativi di intelligenza artificiale possono essere utilizzati per creare e diffondere notizie false in modo credibile e su larga scala, influenzando i prezzi di azioni, criptovalute o altri asset finanziari. Gli algoritmi possono generare volumi artificiali di scambio per dare l’impressione di un interesse reale verso un determinato titolo. Possono alterare in modo automatizzato e sistemico la percezione del mercato, sfruttando l’enorme velocità di elaborazione e la capacità di analizzare istantaneamente enormi quantità di dati.

Si tratta di reati di pericolo concreto, il che significa che non è necessario che si verifichi effettivamente l’alterazione del prezzo o il danno al mercato: è sufficiente che la condotta sia idonea a provocare tali conseguenze. La Corte di Cassazione ha più volte chiarito che questi delitti si consumano nel momento in cui si concretizza la rilevante possibilità di verificazione dell’evento dannoso.

L’inasprimento delle pene riflette la consapevolezza del legislatore che l’uso dell’intelligenza artificiale può amplificare in modo esponenziale l’impatto di tali illeciti, aggirando i controlli tradizionali e generando conseguenze sistemiche difficilmente prevedibili e controllabili.

La tutela del diritto d’autore di fronte all’intelligenza artificiale

La legge n. 132/2025 non si è limitata a modificare il codice penale, ma ha anche intervento sulla legge n. 633/1941 sul diritto d’autore, introducendo protezioni specifiche contro l’uso illecito dell’IA in questo delicato settore.

La novità più significativa riguarda l’articolo 171 della legge sul diritto d’autore, che ora sanziona penalmente anche chi riproduce o estrae testo o dati da opere o altri materiali disponibili in rete o in banche di dati in violazione delle norme che regolano tali attività, anche attraverso sistemi di intelligenza artificiale.

Cosa significa in concreto? I sistemi di IA, in particolare quelli generativi, necessitano di essere “addestrati” su enormi quantità di dati per funzionare. Questo addestramento spesso avviene utilizzando opere protette dal diritto d’autore: libri, articoli, immagini, musica. La legge italiana ha voluto chiarire che non è lecito utilizzare liberamente qualsiasi materiale trovato in rete per addestrare modelli di intelligenza artificiale.

Le nuove norme stabiliscono che le riproduzioni e le estrazioni di testo e dati sono consentite solo in conformità con specifiche condizioni, nel rispetto della Convenzione di Berna sulla protezione delle opere letterarie e artistiche. Chi viola queste regole, anche attraverso sistemi di IA, commette un reato ed è punito con la multa da 51 euro a 2.065 euro.

Si tratta di una scelta che cerca di bilanciare l’innovazione tecnologica con il diritto degli autori a vedere riconosciuta e protetta la loro creatività. L’intelligenza artificiale può essere uno strumento potentissimo per creare nuove opere, ma non può farlo calpestando i diritti di chi ha prodotto le opere originali su cui viene addestrata.

Le implicazioni pratiche: cosa devono sapere cittadini e imprese

Le nuove disposizioni della legge n. 132/2025 hanno conseguenze concrete per tutti noi, cittadini, professionisti e imprese.

Per i cittadini, la novità più importante riguarda la protezione contro i deepfake. Se qualcuno crea e diffonde immagini, video o registrazioni vocali che vi riguardano, manipolate con l’intelligenza artificiale, e questo vi causa un danno, potete presentare querela e il responsabile rischia fino a cinque anni di reclusione. È una tutela fondamentale in un’epoca in cui la tecnologia rende sempre più facile creare contenuti falsi ma credibili. Attenzione però: dovete presentare querela entro tre mesi dal momento in cui avete avuto conoscenza del fatto, salvo i casi in cui si procede d’ufficio.

Per le imprese e gli sviluppatori di sistemi di intelligenza artificiale, le nuove norme impongono massima cautela. Non è più sufficiente creare tecnologie potenti: bisogna assicurarsi che siano utilizzate in modo lecito e che non facilitino la commissione di reati. Chi sviluppa o commercializza sistemi di IA dovrebbe implementare misure di sicurezza adeguate per prevenire usi illeciti e dovrebbe formare adeguatamente gli utenti sui limiti e sui rischi.

I professionisti del settore finanziario devono essere consapevoli che l’uso di algoritmi per manipolare i mercati o diffondere informazioni false ora è sanzionato in modo particolarmente severo. Anche gli sviluppatori di trading bot e sistemi automatizzati devono assicurarsi che i loro prodotti non possano essere utilizzati per scopi illeciti.

Per chi opera nel settore creativo e dei media, le nuove norme sul diritto d’autore impongono di verificare sempre che i materiali utilizzati per addestrare sistemi di IA siano lecitamente acquisiti. Non si può più pensare che tutto ciò che si trova in rete sia liberamente utilizzabile: serve sempre il consenso dei titolari dei diritti, salvo specifiche eccezioni previste dalla legge.

Un altro aspetto fondamentale riguarda il mondo della comunicazione politica e dell’informazione. La tutela rafforzata contro gli attentati ai diritti politici commessi con l’IA significa che chi gestisce campagne elettorali, chi opera nel settore della comunicazione istituzionale o chi diffonde informazioni su temi politici deve prestare massima attenzione a non utilizzare strumenti di IA per manipolare o ingannare gli elettori.

Le deleghe al Governo: cosa ci aspetta nei prossimi mesi

La legge n. 132/2025 non si esaurisce nelle disposizioni già operative. L’articolo 24 ha infatti delegato al Governo il compito di adottare, entro dodici mesi dall’entrata in vigore della legge, uno o più decreti legislativi per adeguare e specificare ulteriormente la disciplina dei casi di realizzazione e impiego illeciti di sistemi di intelligenza artificiale.

I principi e i criteri direttivi che dovranno guidare il Governo sono particolarmente ambiziosi. Innanzitutto, dovranno essere previsti strumenti, anche di natura cautelare, per inibire rapidamente la diffusione e rimuovere contenuti generati illecitamente con l’IA, accompagnati da sanzioni effettive, proporzionate e dissuasive.

Si dovranno introdurre autonome fattispecie di reato, punite sia a titolo di dolo che di colpa, incentrate sull’omessa adozione o sul mancato adeguamento delle misure di sicurezza nella produzione e nell’utilizzo professionale di sistemi di IA, quando da tali omissioni derivi un pericolo concreto per la vita, l’incolumità pubblica o individuale, o per la sicurezza dello Stato.

Un aspetto particolarmente delicato riguarderà i criteri di imputazione della responsabilità penale delle persone fisiche e della responsabilità amministrativa degli enti per illeciti inerenti ai sistemi di IA. La legge delega il Governo a tenere conto del livello effettivo di controllo dei sistemi da parte dell’agente: un tema cruciale quando si parla di sistemi automatizzati che possono agire in modo autonomo.

Nel campo della responsabilità civile, dovranno essere previsti strumenti di tutela per chi subisce danni, anche attraverso una specifica regolamentazione dei criteri di ripartizione dell’onere della prova. In altre parole, chi viene danneggiato da un sistema di IA non dovrà più dimostrare ogni singolo aspetto tecnico del funzionamento dell’algoritmo per ottenere giustizia.

Un capitolo particolarmente atteso riguarda l’utilizzo dei sistemi di intelligenza artificiale nelle indagini preliminari, nel rispetto delle garanzie del diritto di difesa, della protezione dei dati personali e dei principi di proporzionalità, non discriminazione e trasparenza. Le forze di polizia e la magistratura potrebbero presto avere a disposizione strumenti di IA per le indagini, ma con regole chiare e tutele rigorose.

Infine, il Governo dovrà procedere a una revisione complessiva della normativa sostanziale e processuale vigente, per coordinarla e razionalizzarla alla luce delle nuove esigenze poste dall’intelligenza artificiale.

Si tratta di interventi di grande portata, che nei prossimi mesi andranno a completare il quadro normativo oggi solo abbozzato. Il sistema penale italiano si sta preparando a una trasformazione profonda, per essere all’altezza delle sfide poste dall’era dell’intelligenza artificiale.

Un nuovo equilibrio tra innovazione e tutela dei diritti

La legge n. 132/2025 rappresenta un punto di svolta nel rapporto tra diritto e tecnologia. Il legislatore italiano ha scelto di non rimanere in attesa di eventi, ma di dotarsi subito di strumenti normativi per governare i fenomeni legati all’intelligenza artificiale.

L’approccio è pragmatico e bilanciato: non si vuole demonizzare la tecnologia né frenare l’innovazione, ma si vuole garantire che l’IA rimanga uno strumento al servizio dell’uomo e non diventi un mezzo per ledere diritti fondamentali. Le nuove norme penali affiancano il sistema di sanzioni amministrative previsto dall’AI Act europeo, creando un doppio livello di tutela.

Il principio guida è chiaro: la responsabilità resta sempre umana. Un algoritmo, per quanto sofisticato, non può essere chiamato a rispondere penalmente delle sue azioni. Sono sempre le persone che lo hanno creato, programmato, addestrato o utilizzato a dover rendere conto delle conseguenze.

Nei prossimi mesi sarà fondamentale monitorare l’applicazione concreta di queste norme da parte dei tribunali e l’attuazione delle deleghe affidate al Governo. Il diritto penale dell’intelligenza artificiale è appena nato in Italia, e il suo sviluppo sarà uno dei temi giuridici più importanti del prossimo futuro.

Il nostro studio è a disposizione per fornire consulenza specialistica a cittadini, professionisti e imprese che vogliano comprendere come queste nuove norme si applicano alle loro specifiche situazioni. L’intelligenza artificiale è una realtà con cui dovremo tutti confrontarci: meglio farlo con la consapevolezza dei propri diritti e dei propri doveri.

Share the Post:

Related Posts