L’AVVENTO DELL’INTELLIGENZA ARTIFICIALE: SOSTITUIRÀ PRIMA GLI AVVOCATI O I GIUDICI?

Una riflessione sulle trasformazioni in corso nel mondo del diritto I. LA DOMANDA CHE INQUIETA LE PROFESSIONI LEGALI Il 14 marzo 2025, il Tribunale di Firenze è stato teatro di un episodio che potrebbe segnare una svolta nel rapporto tra intelligenza artificiale e giustizia in Italia. Un avvocato aveva depositato una memoria citando sentenze della Cassazione che, si è poi scoperto, non esistevano affatto. Le «decisioni» erano state generate da ChatGPT e utilizzate senza alcuna verifica. I giudici del Tribunale di Firenze, Sezione Imprese, nelle motivazioni dell’ordinanza parlarono di «allucinazioni giurisprudenziali». Il caso fece clamore, ma rappresentava solo la punta dell’iceberg di una trasformazione già in corso. La domanda che oggi attraversa gli uffici giudiziari e gli studi legali è tanto semplice quanto inquietante: l’intelligenza artificiale sostituirà prima gli avvocati o i giudici? Per rispondere, dobbiamo andare oltre le paure e le suggestioni, analizzando con rigore scientifico cosa l’IA sa realmente fare oggi, come si stanno evolvendo le due professioni e quali sono i fattori strutturali che determineranno il ritmo del cambiamento. I dati parlano chiaro: secondo lo studio Censis-Confcooperative del 2024, nei prossimi dieci anni 15 milioni di lavoratori italiani saranno esposti all’impatto dell’intelligenza artificiale, di cui 6 milioni a rischio sostituzione. Tra le professioni considerate «ad alta complementarità» con l’IA figurano proprio avvocati e magistrati, insieme a notai ed esperti legali. Ma il concetto di «complementarità» merita un’analisi più approfondita: significa trasformazione, non eliminazione. Intanto, già oggi esistono sistemi di risoluzione automatizzata delle controversie che gestiscono milioni di casi: eBay risolve 60 milioni di dispute all’anno, il 90% delle quali viene gestito automaticamente senza alcun intervento umano. Questa realtà, spesso ignorata nel dibattito italiano, ci offre una finestra concreta sul futuro della giustizia digitale – e sulle sue condizioni di possibilità. II. IL NUOVO QUADRO NORMATIVO: LE REGOLE DEL GIOCO SONO CAMBIATE L’AI Act europeo e la sua implementazione Il Regolamento europeo sull’intelligenza artificiale (AI Act, UE 2024/1689), entrato in vigore nell’agosto 2024, ha stabilito un principio cardine: l’IA potrà rappresentare un prezioso strumento di supporto per il lavoro dei magistrati, facilitando la ricerca di precedenti giurisprudenziali, la gestione dei procedimenti o la redazione di atti, ma l’essenza stessa della funzione giurisdizionale dovrà sempre restare nelle mani dei giudici. La timeline di implementazione si è ormai definita: dal febbraio 2025 sono in vigore i divieti per le pratiche a rischio inaccettabile, inclusa la «giustizia predittiva penalmente rilevante»; dall’agosto 2025 operano le norme sui modelli di IA per finalità generali; dall’agosto 2026 entreranno in vigore le regole per i sistemi «ad alto rischio», categoria nella quale l’Allegato III, punto 8, include espressamente i sistemi «destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto». Il 10 luglio 2025 la Commissione europea ha pubblicato la versione finale del General-Purpose AI Code of Practice, strumento di soft regulation che accompagnerà l’industria verso la conformità. La Legge italiana n. 132/2025: un primato europeo Il 25 settembre 2025, con la pubblicazione in Gazzetta Ufficiale della Legge n. 132/2025 (in vigore dal 10 ottobre), l’Italia è diventata il primo Paese europeo a dotarsi di una legge quadro nazionale in materia di intelligenza artificiale, affiancandosi all’AI Act con una disciplina che ne specifica l’applicazione all’ordinamento interno. Il legislatore italiano ha adottato un approccio dichiaratamente «antropocentrico», enunciando principi quali la centralità della persona umana, la trasparenza e spiegabilità dei sistemi, la non discriminazione, la protezione dei dati personali e la responsabilità degli operatori. Due articoli definiscono il perimetro per le professioni legali: L’articolo 13 disciplina le professioni intellettuali, stabilendo che l’utilizzo di sistemi di IA è consentito «esclusivamente per attività strumentali e di supporto», con «prevalenza del lavoro intellettuale» oggetto della prestazione. Soprattutto, introduce un obbligo di informativa preventiva al cliente circa l’eventuale utilizzo di tali sistemi, specificandone finalità e modalità. Si configura così un nuovo standard deontologico: la «disclosure tecnologica» entra a pieno titolo nel dovere di lealtà e correttezza professionale. L’articolo 15 disciplina l’attività giudiziaria con un principio netto: è «sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento». Il Ministero della Giustizia disciplina gli impieghi dei sistemi di IA per l’organizzazione e la semplificazione del lavoro giudiziario, autorizzando sperimentazione e impiego negli uffici giudiziari previa consultazione di AGID e ACN. È significativo che l’articolo 17 attribuisca al Tribunale (escluso il Giudice di Pace) la competenza esclusiva sulle cause riguardanti il funzionamento di sistemi di IA: si prospetta la nascita di un contenzioso specializzato in materia di algoritmi, nuovo terreno professionale per gli avvocati. III. LA DELIBERA DEL CSM: LA MAGISTRATURA TRACCIA I PROPRI CONFINI L’8 ottobre 2025, a soli due giorni dall’entrata in vigore della L. 132/2025, il Consiglio Superiore della Magistratura ha approvato le «Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia», primo quadro organico di riferimento per i magistrati italiani. La delibera merita un’analisi attenta, perché rivela la postura culturale con cui la magistratura italiana affronta la sfida dell’automazione. Divieti espliciti e utilizzi ammessi Il CSM vieta espressamente l’uso di ChatGPT, Copilot, Gemini e sistemi generativi simili per scrivere sentenze o motivazioni. Vieta l’uso di sistemi di IA non autorizzati nell’attività giudiziaria in senso stretto. Vieta la «giustizia predittiva» nel senso di decisioni automatizzate. Sono invece ammessi, nella fase transitoria, alcuni utilizzi in ambiente protetto e tracciato: consultazione di banche dati giurisprudenziali e dottrinali, costruzione di stringhe di ricerca complesse, sintesi di provvedimenti per classificazione e archiviazione, redazione di report statistici, bozze di relazioni o pareri su incarichi direzionali. Le proposte operative Il CSM propone: la creazione di un registro nazionale delle applicazioni IA certificate; percorsi formativi obbligatori per i magistrati in collaborazione con la Scuola Superiore della Magistratura; tavoli tecnici congiunti con il Ministero della Giustizia; un piano strategico per l’introduzione dell’IA in giustizia entro il 2026; un sistema IA interno al «dominio giustizia», basato su infrastrutture pubbliche. Una tensione istituzionale latente La delibera segnala una criticità significativa: il mancato coinvolgimento del