Una riflessione sulle trasformazioni in corso nel mondo del diritto
I. LA DOMANDA CHE INQUIETA LE PROFESSIONI LEGALI
Il 14 marzo 2025, il Tribunale di Firenze è stato teatro di un episodio che potrebbe segnare una svolta nel rapporto tra intelligenza artificiale e giustizia in Italia. Un avvocato aveva depositato una memoria citando sentenze della Cassazione che, si è poi scoperto, non esistevano affatto. Le «decisioni» erano state generate da ChatGPT e utilizzate senza alcuna verifica. I giudici del Tribunale di Firenze, Sezione Imprese, nelle motivazioni dell’ordinanza parlarono di «allucinazioni giurisprudenziali».
Il caso fece clamore, ma rappresentava solo la punta dell’iceberg di una trasformazione già in corso. La domanda che oggi attraversa gli uffici giudiziari e gli studi legali è tanto semplice quanto inquietante: l’intelligenza artificiale sostituirà prima gli avvocati o i giudici?

Per rispondere, dobbiamo andare oltre le paure e le suggestioni, analizzando con rigore scientifico cosa l’IA sa realmente fare oggi, come si stanno evolvendo le due professioni e quali sono i fattori strutturali che determineranno il ritmo del cambiamento.
I dati parlano chiaro: secondo lo studio Censis-Confcooperative del 2024, nei prossimi dieci anni 15 milioni di lavoratori italiani saranno esposti all’impatto dell’intelligenza artificiale, di cui 6 milioni a rischio sostituzione. Tra le professioni considerate «ad alta complementarità» con l’IA figurano proprio avvocati e magistrati, insieme a notai ed esperti legali. Ma il concetto di «complementarità» merita un’analisi più approfondita: significa trasformazione, non eliminazione.
Intanto, già oggi esistono sistemi di risoluzione automatizzata delle controversie che gestiscono milioni di casi: eBay risolve 60 milioni di dispute all’anno, il 90% delle quali viene gestito automaticamente senza alcun intervento umano. Questa realtà, spesso ignorata nel dibattito italiano, ci offre una finestra concreta sul futuro della giustizia digitale – e sulle sue condizioni di possibilità.
II. IL NUOVO QUADRO NORMATIVO: LE REGOLE DEL GIOCO SONO CAMBIATE
L’AI Act europeo e la sua implementazione
Il Regolamento europeo sull’intelligenza artificiale (AI Act, UE 2024/1689), entrato in vigore nell’agosto 2024, ha stabilito un principio cardine: l’IA potrà rappresentare un prezioso strumento di supporto per il lavoro dei magistrati, facilitando la ricerca di precedenti giurisprudenziali, la gestione dei procedimenti o la redazione di atti, ma l’essenza stessa della funzione giurisdizionale dovrà sempre restare nelle mani dei giudici.
La timeline di implementazione si è ormai definita: dal febbraio 2025 sono in vigore i divieti per le pratiche a rischio inaccettabile, inclusa la «giustizia predittiva penalmente rilevante»; dall’agosto 2025 operano le norme sui modelli di IA per finalità generali; dall’agosto 2026 entreranno in vigore le regole per i sistemi «ad alto rischio», categoria nella quale l’Allegato III, punto 8, include espressamente i sistemi «destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto».
Il 10 luglio 2025 la Commissione europea ha pubblicato la versione finale del General-Purpose AI Code of Practice, strumento di soft regulation che accompagnerà l’industria verso la conformità.
La Legge italiana n. 132/2025: un primato europeo
Il 25 settembre 2025, con la pubblicazione in Gazzetta Ufficiale della Legge n. 132/2025 (in vigore dal 10 ottobre), l’Italia è diventata il primo Paese europeo a dotarsi di una legge quadro nazionale in materia di intelligenza artificiale, affiancandosi all’AI Act con una disciplina che ne specifica l’applicazione all’ordinamento interno.
Il legislatore italiano ha adottato un approccio dichiaratamente «antropocentrico», enunciando principi quali la centralità della persona umana, la trasparenza e spiegabilità dei sistemi, la non discriminazione, la protezione dei dati personali e la responsabilità degli operatori.
Due articoli definiscono il perimetro per le professioni legali:
L’articolo 13 disciplina le professioni intellettuali, stabilendo che l’utilizzo di sistemi di IA è consentito «esclusivamente per attività strumentali e di supporto», con «prevalenza del lavoro intellettuale» oggetto della prestazione. Soprattutto, introduce un obbligo di informativa preventiva al cliente circa l’eventuale utilizzo di tali sistemi, specificandone finalità e modalità. Si configura così un nuovo standard deontologico: la «disclosure tecnologica» entra a pieno titolo nel dovere di lealtà e correttezza professionale.
L’articolo 15 disciplina l’attività giudiziaria con un principio netto: è «sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento». Il Ministero della Giustizia disciplina gli impieghi dei sistemi di IA per l’organizzazione e la semplificazione del lavoro giudiziario, autorizzando sperimentazione e impiego negli uffici giudiziari previa consultazione di AGID e ACN.
È significativo che l’articolo 17 attribuisca al Tribunale (escluso il Giudice di Pace) la competenza esclusiva sulle cause riguardanti il funzionamento di sistemi di IA: si prospetta la nascita di un contenzioso specializzato in materia di algoritmi, nuovo terreno professionale per gli avvocati.
III. LA DELIBERA DEL CSM: LA MAGISTRATURA TRACCIA I PROPRI CONFINI
L’8 ottobre 2025, a soli due giorni dall’entrata in vigore della L. 132/2025, il Consiglio Superiore della Magistratura ha approvato le «Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia», primo quadro organico di riferimento per i magistrati italiani.
La delibera merita un’analisi attenta, perché rivela la postura culturale con cui la magistratura italiana affronta la sfida dell’automazione.
Divieti espliciti e utilizzi ammessi
Il CSM vieta espressamente l’uso di ChatGPT, Copilot, Gemini e sistemi generativi simili per scrivere sentenze o motivazioni. Vieta l’uso di sistemi di IA non autorizzati nell’attività giudiziaria in senso stretto. Vieta la «giustizia predittiva» nel senso di decisioni automatizzate.
Sono invece ammessi, nella fase transitoria, alcuni utilizzi in ambiente protetto e tracciato: consultazione di banche dati giurisprudenziali e dottrinali, costruzione di stringhe di ricerca complesse, sintesi di provvedimenti per classificazione e archiviazione, redazione di report statistici, bozze di relazioni o pareri su incarichi direzionali.
Le proposte operative
Il CSM propone: la creazione di un registro nazionale delle applicazioni IA certificate; percorsi formativi obbligatori per i magistrati in collaborazione con la Scuola Superiore della Magistratura; tavoli tecnici congiunti con il Ministero della Giustizia; un piano strategico per l’introduzione dell’IA in giustizia entro il 2026; un sistema IA interno al «dominio giustizia», basato su infrastrutture pubbliche.
Una tensione istituzionale latente
La delibera segnala una criticità significativa: il mancato coinvolgimento del CSM nella procedura di autorizzazione ministeriale dei sistemi IA (art. 15, comma 3, L. 132/2025) appare in potenziale contrasto con l’esigenza di garantire autonomia e indipendenza della magistratura. Le raccomandazioni rivendicano con forza un ruolo di «attore comprimario» del CSM nella governance dell’IA giudiziaria.
Sono già attive sperimentazioni controllate presso i tribunali di Bologna, Catania e Milano, con previa anonimizzazione e tracciabilità dei dati. Ma la postura complessiva è di estrema prudenza.
IV. L’ESCALATION GIURISPRUDENZIALE: DA FIRENZE A TORINO AL TAR MILANO
Il caso fiorentino del marzo 2025 è stato solo l’inizio. Nei mesi successivi, la giurisprudenza ha progressivamente innalzato il livello di severità nei confronti dell’uso improprio dell’IA negli atti processuali.
Tribunale di Firenze (marzo 2025): il monito senza sanzione
L’ordinanza del 14 marzo 2025 del Tribunale di Firenze, Sezione Imprese, coniò l’espressione «allucinazioni giurisprudenziali» ma escluse la responsabilità aggravata ex art. 96 c.p.c., non ravvisando mala fede o colpa grave nell’avvocato. Fu un monito, non una sanzione.
Tribunale di Torino (settembre 2025): la prima condanna
Il 16 settembre 2025, il Tribunale di Torino, Sezione Lavoro, con la sentenza n. 2120, ha segnato un cambio di passo. In un’opposizione a decreto ingiuntivo, il giudice ha condannato il ricorrente per lite temeraria ex art. 96 c.p.c. La motivazione è severa: il ricorso, redatto col supporto dell’IA, è risultato essere un «coacervo di citazioni normative e giurisprudenziali astratte», privo di logica e connessione con la realtà dei fatti.
Il principio affermato è inequivocabile: delegare la strategia difensiva alla macchina senza un controllo critico non è solo un errore tecnico, ma costituisce colpa grave, sanzionabile processualmente.
TAR Lombardia Milano (ottobre 2025): la trasmissione all’Ordine
Il 21 ottobre 2025, il TAR Lombardia (Milano), con la sentenza n. 3348, ha compiuto un ulteriore passo: primo caso noto nell’ambito della giustizia amministrativa italiana, il giudice ha disposto la trasmissione degli atti all’Ordine degli Avvocati di Milano per valutazioni deontologiche, dopo aver rilevato citazioni giurisprudenziali inesistenti generate da IA.
L’avvocato aveva ammesso in camera di consiglio di aver utilizzato strumenti IA che avevano generato risultati errati. Il TAR ha definito tali risultati come «allucinazioni da intelligenza artificiale», escludendo qualsiasi «valenza esimente» dell’uso di tali strumenti.
Il TAR ha valorizzato la Carta HOROS dell’Ordine di Milano, richiamando il Principio 4 sulla centralità della decisione umana e l’onere di verifica e controllo dell’esito delle ricerche effettuate con IA.
Il principio chiave: «La sottoscrizione degli atti processuali attribuisce la responsabilità al sottoscrittore indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi di strumenti di intelligenza artificiale».
V. L’AVVOCATURA IN MOVIMENTO: DATI, STRUMENTI, TIMORI
I numeri dell’adozione: l’indagine IPSOS per il CNF
Il 15 ottobre 2025, l’indagine «Avvocati e attualità: Intelligenza artificiale», realizzata da IPSOS per il Consiglio Nazionale Forense su un campione di 2.532 avvocati italiani, ha fornito per la prima volta dati empirici affidabili sull’adozione dell’IA nella professione forense.
I risultati delineano un quadro di adozione significativa ma diffidenza persistente: il 36% degli avvocati intervistati utilizza già strumenti di IA a fini professionali, ma la fiducia resta bassa. Il 72% non ritiene l’IA in grado di interpretare correttamente leggi e precedenti; l’82% teme la disumanizzazione dei processi decisionali; l’80% paventa l’amplificazione dei pregiudizi sociali; l’80% segnala l’opacità dei meccanismi decisionali.
Per essere considerato affidabile in ambito giuridico, un sistema di IA deve garantire – secondo gli avvocati intervistati – sicurezza dei dati e rispetto della privacy (37%), trasparenza degli algoritmi (37%), accuratezza dei risultati (32%) e capacità di cogliere le sfumature legali (32%).
Gli strumenti istituzionali: dal CNF alla Carta HOROS
Il 13 ottobre 2025, a tre giorni dall’entrata in vigore della L. 132/2025, il Consiglio Nazionale Forense ha diffuso uno schema di informativa sull’utilizzo dell’IA, da utilizzare nella comunicazione con i clienti. Lo schema, firmato dal Presidente Avv. Francesco Greco, è concepito per adempiere all’obbligo di trasparenza previsto dall’art. 13 della legge.
Il giorno successivo, il CNF ha avviato una consultazione preliminare di mercato per l’affidamento di servizi di intelligenza artificiale per l’avvocatura, con requisiti stringenti: divieto assoluto di training sui dati degli utenti, localizzazione del trattamento dati in UE, segregazione completa dei dati di ciascun utente.
La Carta HOROS dell’Ordine degli Avvocati di Milano, lanciata il 17 dicembre 2024, ha acquisito una dimensione nuova: la sua valorizzazione da parte del TAR Milano l’ha trasformata da documento di soft law a strumento interpretativo utilizzato dalla giurisprudenza. I dieci principi della Carta – dalla centralità della decisione umana alla trasparenza, dalla competenza alla formazione continua – rappresentano oggi un riferimento operativo per l’intera avvocatura italiana.
Il quadro europeo: le Linee Guida CCBE
Il 2 ottobre 2025, il Consiglio degli Ordini Forensi d’Europa (CCBE) ha pubblicato la «Guida sull’uso dell’intelligenza artificiale generativa da parte degli avvocati», fornendo un quadro europeo di riferimento.
Le Linee Guida affrontano i temi cruciali: il rischio di trasmissione involontaria di dati riservati attraverso i prompt; il fenomeno delle «allucinazioni»; la permanenza della responsabilità professionale in capo all’avvocato; la necessità di formazione continua. La guida si inserisce nel contesto della Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale, primo trattato internazionale giuridicamente vincolante in materia di IA.
VI. LA VERA LINEA DI DEMARCAZIONE: RELAZIONE VS BUROCRAZIA
È giunto il momento di affrontare la questione centrale, quella che gli sviluppi del 2025 hanno reso ineludibile: cosa rende davvero insostituibile un professionista del diritto nell’era dell’intelligenza artificiale?
L’avvocato e la cura della relazione
L’indagine IPSOS rivela un dato apparentemente contraddittorio: un terzo degli avvocati usa l’IA, ma otto su dieci temono le sue conseguenze. Come spiegare questa dissonanza? La risposta sta nella natura stessa della professione forense.
L’avvocato non è un erogatore di pareri giuridici: è un accompagnatore nelle scelte difficili. Il cliente non cerca solo competenza tecnica – che l’IA può in parte replicare – ma qualcuno che ascolti la sua storia, che comprenda le sue paure, che sappia tradurre l’astrattezza della norma nella concretezza della sua vita.
L’obbligo di informativa introdotto dall’art. 13 della L. 132/2025 non è un mero adempimento burocratico: è l’occasione per riaffermare il primato della relazione sulla tecnologia. L’avvocato che spiega al cliente come e perché utilizza l’IA – e cosa questo significa per il suo caso – trasforma un obbligo in un momento di rafforzamento del rapporto fiduciario.
L’IA può redigere una bozza di contratto, può individuare i precedenti rilevanti, può suggerire argomentazioni. Ma non può guardare negli occhi un imprenditore che sta per firmare un accordo che cambierà la sua vita. Non può percepire l’esitazione di chi sta per intraprendere una causa che lacererà una famiglia. Non può calibrare le parole in funzione della fragilità emotiva del momento.
L’avvocato che coltiva questa dimensione – la dimensione propriamente umana della professione – non ha nulla da temere dall’intelligenza artificiale. Al contrario: più l’IA si occuperà delle attività ripetitive, più tempo avrà per ciò che conta davvero.
C’è un dato strutturale che merita attenzione: l’avvocato incontra personalmente i propri clienti. In studio o in videoconferenza, il colloquio è il momento fondativo del rapporto professionale. L’avvocato guarda negli occhi chi gli chiede aiuto, ne percepisce le esitazioni, ne coglie ciò che le parole non dicono. Questa prassi – così naturale da sembrare ovvia – è in realtà il presidio più solido contro l’automazione.
Un sistema di intelligenza artificiale può analizzare documenti, individuare precedenti, suggerire strategie. Ma non può sedersi di fronte a un imprenditore in crisi e capire se ha bisogno di una soluzione tecnica o di qualcuno che lo ascolti mentre elabora il fallimento di un progetto di vita. Non può percepire la differenza tra un cliente che vuole davvero andare in causa e uno che ha solo bisogno di sentirsi dire che ha ragione prima di accettare una transazione.
La comparizione personale del cliente nello studio dell’avvocato non è un residuo del passato: è il fondamento antropologico di una professione che, proprio per questo, resta irriducibile all’algoritmo.
Il giudice civile e la tentazione burocratica
Il quadro cambia profondamente quando guardiamo alla magistratura civile. La delibera del CSM del 8 ottobre 2025 rivela una postura che merita una riflessione critica.
Da un lato, il CSM afferma principi ineccepibili: la decisione resta umana, l’IA è solo supporto, la motivazione deve essere trasparente. Dall’altro, la delibera tradisce una concezione della funzione giudiziaria che rischia di preparare il terreno alla propria marginalizzazione.
Il problema non è l’IA. Il problema è una giustizia civile che, da decenni, tratta le controversie «minori» come fastidi da smaltire, non come richieste di giustizia da ascoltare. Una giustizia che ha trasformato il processo in una sequenza di adempimenti formali, dove il cittadino è un fascicolo, non una persona.
L’arroccamento burocratico della magistratura civile – la proliferazione di formule standardizzate, la motivazione per relationem, il rinvio sistematico alla giurisprudenza consolidata senza vera adesione al caso concreto – è esattamente ciò che l’intelligenza artificiale sa fare meglio.
Se la sentenza è applicazione meccanica di precedenti a fattispecie tipizzate, allora un algoritmo può farlo. Se la motivazione è assemblaggio di formule già scritte, allora un sistema generativo può farlo. Se il giudice non incontra mai le parti, non ascolta mai le ragioni umane del conflitto, non esercita mai quel discernimento che solo l’intelligenza incarnata può esprimere – allora perché non automatizzare?
L’udienza che non c’è più: l’art. 127-ter c.p.c.
C’è un dato normativo che fotografa impietosamente questa deriva: l’art. 127-ter c.p.c., introdotto durante l’emergenza COVID, consente al giudice di sostituire l’udienza con il deposito di note scritte. Quella che doveva essere una misura emergenziale è diventata, di fatto, la modalità prevalente di celebrazione delle udienze civili.
La trattazione scritta elimina ogni residuo di oralità dal processo civile. Non c’è più l’udienza come momento di confronto, non c’è più lo scambio dialettico tra giudice e difensori, non c’è più neppure la possibilità per l’avvocato di cogliere – da uno sguardo, da una domanda, da un’esitazione – l’orientamento del magistrato.
Ma soprattutto: se l’udienza si riduce a uno scambio di file PDF tra terminali, che differenza c’è tra un giudice e un algoritmo? Se il magistrato non incontra mai le parti, non ascolta mai gli avvocati, non esercita mai quella funzione di mediazione e chiarimento che l’udienza tradizionalmente consentiva, allora la sua attività è già, di fatto, automatizzabile.
Il contrasto con la professione forense è stridente. L’avvocato continua a ricevere i clienti in studio, a guardarli negli occhi, a costruire con loro una relazione di fiducia. Il giudice civile, invece, è diventato un’entità invisibile, che comunica solo attraverso provvedimenti e decreti. I magistrati non dispongono quasi mai la comparizione personale delle parti, se non nei rari casi in cui è obbligatoria per legge. E quando l’udienza si tiene, è sempre più spesso una formalità burocratica, non un momento di ascolto.
Questa scelta – perché di scelta si tratta, non di necessità – prepara il terreno all’automazione. Un giudice che non incontra mai le parti è un giudice che ha già rinunciato a ciò che lo rende insostituibile. L’intelligenza artificiale non farà che completare un processo di spersonalizzazione che la magistratura civile ha avviato da sola.
Le controversie «minori»: un concetto pericoloso
La storia dei sistemi di risoluzione automatizzata delle controversie è istruttiva. eBay risolve 60 milioni di dispute all’anno. PayPal blocca automaticamente i fondi e gestisce il processo con algoritmi. ICANN risolve le controversie sui nomi di dominio in meno di 40 giorni.
Questi sistemi funzionano perché sono consensuali: le parti scelgono volontariamente di sottoporvisi. Ma la tentazione di estendere questo modello alla giustizia statale è fortissima – e trova terreno fertile proprio nella retorica delle controversie «minori».
La riforma Cartabia ha elevato la competenza del Giudice di Pace a 10.000 euro per le controversie ordinarie e 25.000 euro per i danni da circolazione. Nel 2021, queste materie hanno generato circa 300.000 procedimenti. Un bacino enorme di cause che, nella logica dell’efficienza, potrebbero essere candidate all’automazione.
Ma cosa significa «minore»? Per chi deve recuperare 3.000 euro da un debitore insolvente, quella causa non è affatto minore. Per chi ha subito un incidente stradale e combatte con l’assicurazione, quei 15.000 euro di risarcimento sono essenziali. Per chi è in conflitto con il vicino per i confini di un terreno, quella lite è esistenzialmente centrale.
Definire «minore» una controversia in base al suo valore economico è un atto di violenza simbolica verso il cittadino. È dire: il tuo problema non merita un giudice vero, accontentati di un algoritmo.
Eppure, se la magistratura civile continua a trattare queste cause come pratiche da smaltire, l’automazione diventerà inevitabile – e forse persino desiderabile per il cittadino, che almeno otterrà una risposta rapida.
VII. DUE SCENARI FUTURI
Scenario A: L’avvocato relazionale
In questo scenario, l’avvocato abbraccia l’intelligenza artificiale come strumento di liberazione dalle incombenze ripetitive. L’IA si occupa della ricerca giurisprudenziale, della redazione delle bozze, dell’analisi contrattuale, della gestione documentale. L’avvocato, liberato da questi compiti, investe il tempo guadagnato nella relazione con il cliente.
L’informativa prevista dall’art. 13 della L. 132/2025 diventa un momento di dialogo: l’avvocato spiega come usa la tecnologia, perché la usa, quali sono i vantaggi per il cliente. La trasparenza rafforza la fiducia.
L’avvocato sviluppa competenze nuove: la capacità di formulare prompt efficaci, la capacità di verificare criticamente gli output, la capacità di integrare il contributo dell’IA con il proprio giudizio professionale. Ma soprattutto, affina la competenza che l’IA non può replicare: l’intelligenza emotiva e relazionale.
In questo scenario, l’avvocato non è sostituito: è potenziato. La professione si eleva, concentrandosi su ciò che è propriamente umano.
Scenario B: Il giudice-burocrate e l’automazione strisciante
In questo scenario, la magistratura civile non coglie l’occasione del cambiamento. L’arroccamento continua: motivazioni standardizzate, udienza come rito vuoto, decisione come applicazione meccanica.
Il CSM mantiene i divieti formali, ma la sostanza della funzione giudiziaria si svuota. I sistemi di IA, formalmente «di supporto», producono di fatto le bozze che i magistrati si limitano a firmare. La revisione umana diventa sempre più superficiale, pressata dai carichi di lavoro.
Per le controversie «minori», si introduce la mediazione automatizzata obbligatoria. Chi non accetta l’esito può ricorrere al giudice, ma i tempi e i costi scoraggiano. Di fatto, milioni di cause vengono decise da algoritmi – con il consenso implicito del cittadino che preferisce una risposta rapida e prevedibile a una giustizia lenta e incerta.
In questo scenario, il giudice civile delle controversie minori non è formalmente sostituito: è marginalizzato. Resta per i casi eccezionali, quelli che l’algoritmo non sa gestire. Ma la massa del contenzioso quotidiano – quello che tocca la vita di milioni di cittadini – è gestita dalle macchine.
VIII. CONCLUSIONI: LA SCELTA CHE ABBIAMO DAVANTI
Alla luce di questa analisi, possiamo ora rispondere alla domanda iniziale: l’intelligenza artificiale sostituirà prima gli avvocati o i giudici?
La risposta, dopo gli sviluppi del 2025, è più sfumata di quanto sembrasse in marzo.
L’avvocato che cura la relazione con il cliente è insostituibile. L’obbligo di informativa, le responsabilità deontologiche, i rischi sanzionatori creano un contesto in cui l’uso consapevole e trasparente dell’IA rafforza – anziché indebolire – il ruolo del professionista. L’avvocato che abbraccia la tecnologia come strumento, mantenendo la centralità della dimensione umana, ha davanti a sé un futuro di elevazione professionale.
Il giudice civile che si arrocca nella burocrazia procedimentale, invece, prepara il terreno alla propria marginalizzazione. Non perché l’IA «ruberà il lavoro», ma perché una giustizia ridotta ad applicazione meccanica di precedenti è, per definizione, automatizzabile. Se il sistema decide che certe controversie sono «minori» e non meritano un giudice vero, l’algoritmo è pronto a prendere il suo posto.
La vera domanda, allora, non è «chi sarà sostituito prima». La vera domanda è: cosa vogliamo che sia la giustizia?
Se la giustizia è mera applicazione di regole a fattispecie, l’automazione è il suo destino naturale – e forse desiderabile, per efficienza e prevedibilità. Ma se la giustizia è incontro tra persone, ascolto delle ragioni umane del conflitto, esercizio di quel discernimento che solo l’intelligenza incarnata può esprimere, allora l’intelligenza artificiale non è una minaccia: è un’opportunità per tornare all’essenziale.
La lezione dei tessitori di Nottingham, che nell’Ottocento distrussero i telai meccanici temendo per il proprio lavoro, rimane attuale. Avevano ragione nel cogliere la minaccia, torto nel credere che la resistenza fosse la soluzione. L’automazione del processo tessile divenne inarrestabile, ma creò anche nuove opportunità.
Oggi, la sfida è governare la transizione, non subirla. Gli avvocati che investono nella relazione, i giudici che riscoprano il senso profondo della giurisdizione, emergeranno rafforzati. Gli altri – avvocati o giudici che siano – scopriranno che l’intelligenza artificiale sa fare meglio di loro ciò che loro stessi avevano ridotto a routine.
L’intelligenza artificiale non è il nemico delle professioni legali: è lo specchio che rivela se in quelle professioni sia rimasta ancora anima.
