Intelligenza Artificiale e Codice Penale: le nuove sanzioni fino a 5 anni di reclusione

La legge n. 132/2025 introduce reati specifici per i deepfake e l’uso illecito dell’IA: ecco cosa cambia per cittadini e imprese Il 3 novembre 2025 è entrata in vigore la legge n. 132/2025, che segna una svolta storica nel rapporto tra intelligenza artificiale e diritto penale italiano. Per la prima volta, il nostro codice penale si dota di strumenti specifici per contrastare gli abusi legati all’uso dei sistemi di IA, introducendo nuove fattispecie di reato e aggravanti che possono portare a pene fino a cinque anni di reclusione. La scelta italiana è coraggiosa e innovativa: mentre il Regolamento europeo sull’intelligenza artificiale (AI Act) prevede esclusivamente sanzioni amministrative, il nostro legislatore ha deciso di affiancare a queste anche una risposta penale, ritenuta necessaria per tutelare efficacemente i diritti fondamentali delle persone. L’approccio italiano: responsabilità penale accanto alle sanzioni amministrative La legge n. 132/2025 si inserisce in un contesto normativo già definito a livello europeo dal Regolamento (UE) 2024/1689, noto come AI Act. Quest’ultimo ha introdotto un sistema articolato di sanzioni amministrative, affidando agli Stati membri il compito di vigilare sulla corretta applicazione delle norme attraverso autorità nazionali competenti. Tuttavia, il legislatore italiano ha ritenuto che le sole sanzioni amministrative non fossero sufficienti a proteggere beni giuridici fondamentali come la libertà personale, la dignità individuale e l’integrità dei processi democratici. Da qui la scelta di introdurre vere e proprie fattispecie penali, capaci di offrire una tutela più incisiva e una maggiore capacità deterrente. L’impostazione scelta dal nostro Paese mira a trovare un equilibrio tra innovazione tecnologica e tutela dei diritti: non si vuole frenare lo sviluppo dell’intelligenza artificiale, ma ricondurre sempre i comportamenti nell’alveo della responsabilità umana. L’IA può essere uno strumento straordinario, ma deve rimanere sotto il controllo e la responsabilità delle persone che la utilizzano. La nuova circostanza aggravante comune per i reati commessi con l’IA Una delle principali novità introdotte dalla legge riguarda l’articolo 61 del codice penale, che disciplina le circostanze aggravanti comuni. È stata aggiunta una nuova aggravante, il numero 11-undecies, che si applica quando un reato viene commesso mediante sistemi di intelligenza artificiale, in tre specifiche situazioni. La prima ipotesi riguarda i casi in cui i sistemi di IA, per la loro natura o per le modalità con cui vengono utilizzati, costituiscono un mezzo insidioso. Si pensi, ad esempio, all’utilizzo di bot sofisticati che si spacciano per persone reali per ingannare le vittime, oppure all’impiego di algoritmi che sfruttano vulnerabilità psicologiche per manipolare le scelte altrui. La seconda situazione ricorre quando l’impiego dell’intelligenza artificiale ha ostacolato la difesa, sia pubblica che privata. In questo caso, l’aggravante si applica quando l’uso della tecnologia ha reso più difficile scoprire il reato, identificare il responsabile o raccogliere le prove necessarie per difendersi. L’automazione e la complessità dei sistemi di IA possono, infatti, creare una vera e propria cortina fumogena che impedisce di ricostruire l’accaduto. La terza e ultima ipotesi si verifica quando l’impiego dei sistemi di intelligenza artificiale ha aggravato le conseguenze del reato. Un esempio concreto potrebbe essere l’utilizzo di IA per amplificare su scala massiva la diffusione di contenuti diffamatori o per rendere particolarmente incisive e pervasive campagne di disinformazione. Questa aggravante ha carattere generale e può quindi applicarsi a qualsiasi reato: dal furto informatico alla diffamazione online, dalla frode alle lesioni personali. L’effetto pratico è un aumento della pena prevista per il reato base, con conseguenze significative sul piano sanzionatorio. La protezione del voto democratico: l’aggravante per attentati ai diritti politici La tutela della democrazia rappresenta uno degli obiettivi prioritari anche del Regolamento europeo sull’IA. Per questo motivo, la legge n. 132/2025 ha introdotto una specifica aggravante a effetto speciale per il delitto di attentati contro i diritti politici del cittadino, previsto dall’articolo 294 del codice penale. Questa disposizione punisce chiunque, con violenza, minaccia o inganno, impedisce in tutto o in parte l’esercizio di un diritto politico, oppure determina qualcuno a esercitarlo in modo diverso dalla sua volontà. I diritti politici tutelati sono quelli che permettono ai cittadini di partecipare all’organizzazione dello Stato, in particolare il diritto di voto attivo e passivo. Con la nuova aggravante, se l’inganno viene posto in essere mediante l’impiego di sistemi di intelligenza artificiale, la pena prevista passa dalla reclusione da uno a cinque anni alla reclusione da due a sei anni. Si tratta di un inasprimento significativo, che riflette la particolare gravità di condotte che minacciano il cuore stesso del processo democratico. Pensiamo, ad esempio, ai deepfake video che mostrano un candidato politico mentre pronuncia frasi mai dette, ai bot che diffondono massivamente notizie false sulle modalità di voto, o agli algoritmi che manipolano le informazioni mostrate agli elettori per influenzarne le scelte. Sono tutti scenari concreti che questa norma intende contrastare con fermezza. La giurisprudenza ha chiarito che il reato di cui all’articolo 294 del codice penale è un reato di evento e non di mera condotta, per cui è possibile anche il tentativo. Questo significa che la legge punisce non solo chi riesce effettivamente a impedire o alterare l’esercizio del diritto politico, ma anche chi ci prova senza riuscirci. Il nuovo reato di diffusione illecita di contenuti generati o manipolati con l’IA La novità più rilevante della legge n. 132/2025 è senza dubbio l’introduzione del nuovo articolo 612-quater nel codice penale, che crea una fattispecie penale autonoma dedicata alla diffusione illecita di contenuti generati o manipolati mediante intelligenza artificiale. Questo nuovo delitto, collocato tra i delitti contro la libertà morale, punisce con la reclusione da uno a cinque anni chiunque cagioni un danno ingiusto a una persona cedendo, pubblicando o diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale, purché tali contenuti siano idonei a trarre in inganno sulla loro genuinità. La norma nasce per contrastare il fenomeno dei cosiddetti deepfake, ovvero contenuti multimediali creati o manipolati attraverso l’intelligenza artificiale in modo così realistico da risultare praticamente indistinguibili da quelli autentici. La tecnologia ha raggiunto livelli talmente sofisticati che è possibile creare video in cui una persona