Giudice e intelligenza artificiale

Sempre più diffusa è la tendenza all’applicazione dell’IA nell’ambito giudiziario: si parla al riguardo di giustizia predittiva, ossia l’impiego di algoritmi complessi per assumere decisioni giudiziarie o prevedere l’esito di decisioni. Oggi la giustizia predittiva è molto diffusa negli Stati Uniti, mentre in Europa essa è ancora allo stadio sperimentale. Si discute molto sui vantaggi e gli svantaggi della giurimetria, ossia la misurazione e l’analisi dei fenomeni giuridici attraverso metodi quantitativi, associata alla giustizia predittiva e sulla obiettività, ragionevolezza e trasparenza delle decisioni adottate applicando modelli statistici e algoritmi di apprendimento automatico. Il caso Eric Loomis della Corte Suprema del Wisconsin mette in evidenza i rischi della legal technology applicata alla giustizia penale, soprattutto quando l’algoritmo è segreto e dunque non verificabile o contestabile.

Non a caso nel 2018 la Commissione europea per l’efficienza e la giustizia ha adottato la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi.

I principi dell’equo processo e del diritto di difesa, cardini dei sistemi giuridici europeo e italiano, costituiscono un limite all’introduzione della giustizia predittiva? La giustizia predittiva, prescindendo dal giudizio sul fatto, può introdurre forme di responsabilità di tipo oggettivo, con tutte le conseguenze di natura etica e giuridica?

Condividi questo post

guest
2 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
Antonio D'Aloia
Antonio D'Aloia
4 mesi fa

Antonio D’Aloia
Oltre 50 anni fa Mario Losano definiva così il nuovo campo della giurimetria: «la giurimetria si occupa di materie come l’analisi quantitativa del comportamento giudiziale, dell’applicazione della teoria della comunicazione e dell’informazione all’espressione giuridica, dell’uso della logica nel diritto, del reperimento di dati giuridici con mezzi meccanici ed elettronici e della formulazione d’un calcolo della probabilità applicato all’attività giudiziaria ».
Era una fase assolutamente pionieristica nel rapporto tra informatica e diritto. Gli elaboratori elettronici erano essenzialmente strumenti di raccolta e catalogazione della giurisprudenza, al più di ricerca e individuazione di linee di tendenza che l’operatore del diritto avrebbe usato per svolgere la sua analisi. Il tempo dell’AI era ancora lontano dal diventare -per dirla con Garapon e Lassegue (2021)- un ‘fatto sociale totale’.
Anche in quei primi lavori però era possibile cogliere alcune intuizioni sulle possibili evoluzioni della cibernetica e del suo impatto sulle attività più tipicamente umane.
Nell’attuale versione del field definito come AI Law, è ormai un dato di realtà che la decisione umana (in moltissimi settori) possa essere sostituita e/o affiancata/preparata dalla decisione basata su procedimenti di tipo computazionale. Il tema è capire e stabilire cosa e quanto invece riteniamo che debba rimanere riservato alla sfera della decisione umana.
Uno dei settori più studiati è proprio quello legato all’applicazione dei sistemi di IA alla decisione giurisdizionale.
La ‘macchina’ che giudica con rapidità e oggettività, che elimina in radice arretrati e ritardi nell’amministrazione della giustizia; ma che soprattutto non è condizionata da tutti quei fattori (soggettivi, emozionali, di adeguatezza professionale delle parti e del giudice, finanche di pregiudizi legati al sesso o all’orientamento sessuale, alla razza, alla religione, alla nazionalità, ecc.) che rendono imperfetta la decisione umana.
In Criminal Sentences: Law Without Order, iconico saggio del 1973, Frankel avviò una serie di riflessioni sul rumore nella giustizia penale che poi vennero sviluppate in moltissimi studi condotti su rilevanti campioni statistici di sentenze penali. Il risultato fu sorprendente, ma chiarissimo nell’evidenziare la dipendenza del giudizio finale da fattori (emozionali, razziali, legati finanche al clima di quel giorno o ad alcune passioni sportive dei Giudici) che avevano poco o nulla a che fare con la condotta, l’atteggiamento psicologico del reo, gli altri elementi oggettivi della situazione portata in giudizio.
Viceversa, l’uso dei computer nel processo poteva rappresentare un tassello importante verso l’affermazione del principio di legalità penale come «corpus di regole impersonali, applicabili in maniera generalizzata, vincolante per i giudici come per chiunque altro». In altre parole, la decisione computazionale sarebbe oggettiva, intrinsecamente imparziale, del tutto avulsa dai pregiudizi che appartengono all’esperienza umana.
Con questa premessa teorica la transizione verso una giustizia digitale sembra quasi irresistibile.
Nessuna delle obiezioni che possono essere avanzate appare definitiva, almeno non in tutti i settori o momenti procedurali della giustizia. La giustizia è fatta anche di procedimenti ripetitivi e standardizzati, e di decisioni meramente reiterative di precedenti, dove la densità interpretativa e lo sforzo motivazionale appaiono molto bassi, quasi inesistenti.
A questa stregua, credo sia sbagliato affrontare il problema in un’ottica radicale, da ‘tutto o niente’.
I sistemi di AI possono dare un contributo utile in molte situazioni, sicuramente nei procedimenti seriali e a basso (o inesistente) contenuto motivazionale.
Anche nei casi più complessi, le indicazioni statistico-predittive dell’algoritmo possono servire come base conoscitiva che può esercitare una pressione deflattiva sul contenzioso (quando ad esempio mette in evidenza un chiaro e ripetibile orientamento) o rappresentare il punto di partenza di un confronto che può svilupparsi nello stesso grado di giudizio, o attraverso l’uso dei meccanismi di impugnazione; a condizione però sia comunque rispettato il principio di non esclusività (“il giudice uomo non deve mai essere soppiantato dal giudice artificiale”, scrive G. Zaccaria, 2023, 62, e 65/67),
Dal mio punto di vista, motivazione, impugnazione (e ovviamente capacità tecnico-professionale del giudice) restano le garanzie costituzionali fondamentali del processo e della stessa imparzialità del Giudice. E la macchina appare ancora troppo opaca e incomprensibile sul perché arriva ad una determinata sintesi, quale peso attribuisce ai diversi elementi e alla combinazione tra di loro.
Nello jus dicere non è importante solo il risultato, o la rapidità (che pure è un pezzo del ‘giusto’ processo); ma come ci si arriva, attraverso un confronto pieno ed effettivo delle difese (tra di loro e con il Giudice), dove la qualità della decisione giurisdizionale sia anche il riflesso della capacità del giudice di far emergere la ‘singolarità’ dei fatti e dei contesti umani, di calibrare su di essi la decisione, in particolare (o almeno) su questioni eticamente sensibili, o rivendicazioni inedite, difficili da collocare in una dimensione standardizzata.
Appunto, la motivazione (che comprende fatto e diritto, e li connette), emblema di ciò che resta «un’impresa profondamente umana», … (una) scommessa sull’umanità che comporta una fallibilità » (Garapon e Lassègue, 2021, 252-253 e 278).
Non tutto può essere ricondotto ai binari schematici della computazione algoritmica. I fatti che il diritto è chiamato a considerare presentano talvolta una irriducibile varietà, richiedono ragionevolezza, proporzionalità; vanno confrontati con principi aperti e polisemici; contengono e riversano sul Giudice emozioni, speranze, tutta la complessità dei problemi umani. Nel 1881, in The Common Law, Oliver Wendell Holmes scriveva che «The life of the Law has not been logic: it has been experience».
Questo vale in particolare per le decisioni che riguardano direttamente le persone e la loro libertà. Mi riferisco al processo penale, dove vengono in gioco, come forse in nessun altro sotto-sistema giurisdizionale, diritti umani fondamentali, come la libertà personale, il diritto alla sicurezza, la dignità umana, il diritto ad un giusto processo e a non essere considerati colpevoli fino a che non venga accertata la propria responsabilità, il diritto del condannato a sperare nel reinserimento sociale.
La giustizia penale ha bisogno dello ‘sguardo’, dello scambio di empatia umana (con tutte le sue variabili rumorose) tra il Giudice e l’imputato (o la vittima). In questo campo gli automatismi possono condurre a risultati irragionevoli, sproporzionati. La Corte Suprema americana, nel caso Woodson v. North Carolina, giudicò incostituzionale l’obbligatorietà della pena di morte per alcuni reati, per il fatto di «trattare tutte le persone condannate per un reato designato non come esseri umani unici e individuali, ma come membri di una massa anonima e indifferenziata da sottoporre al castigo cieco della pena di morte».
A parte questo, le prime sperimentazioni di giustizia ‘predittiva’ hanno mostrato (e forse non dovremmo nemmeno sorprenderci giacché l’algoritmo lavora sui ‘nostri’ dati e tra i nostri ‘pregiudizi’) che i dataset con cui questi sistemi sono allenati e dai quali ricavano predittivamente le loro decisioni, possono essere incompleti, parziali, viziati da bias di varia natura o aggregati in modo da produrre (anche involontariamente) risultati ingiusti o discriminatori, incerti, manipolati.
Proprio sul caso Loomis, Nieva Fenoll (2019, 59) ha evidenziato come alcuni dei fattori considerati nel dataset di Compas (come ad esempio: i) precedenti criminali nella sua famiglia e fra i suoi amici; ii) criminalità nella zona di residenza; iii) livello di studi; iv) situazione finanziaria e lavorativa), possono avere un impatto discriminatorio sul piano razziale o sul piano delle condizioni socio-economiche del reo. E spesso le due cose si sovrappongono.
C’è un ultimo punto critico della giustizia algoritmica. Essa per definizione è costruita sui precedenti, in un certo senso è schiacciata sul passato. È vero che i precedenti sono un elemento importante, spesso decisivo, anche nella forma umana della giurisdizione. Tuttavia, per la decisione algoritmica questa sembra una condizione geneticamente legata ai modi della sua formazione.
Il diritto umano è invece aperto al dinamismo, alla scoperta di significati nuovi, alla fiducia che un’opinione isolata possa diventare condivisa dopo qualche anno, di fronte a contesti culturali e sociali modificati. In questo c’è la distanza fondamentale tra predittività e interpretazione: la prima ha qualcosa di statico, di uniformante, «accresce il presente» in una sorta di «pietrificazione del tempo» (Garapon, Lassègue, cit., 184-185, e 92-93).

Giuseppe Mastromarco
Giuseppe Mastromarco
4 mesi fa

La diffusione dell’intelligenza artificiale (A.I.) e degli algoritmi predittivi sembra essere destinata ad incidere in maniera determinante sul volto della nostra epoca. Applicazioni disparate ed interessi economici consistenti impongono un confronto tra questa dimensione e quella giuridica. La diffidenza nei confronti del giudicante (umano) insieme alla mole del carico giudiziario, sembrano spianare la strada all’introduzione di strumenti predittivi in ambito processuale e giuridico lato sensu. In alcuni ordinamenti si è già assistito ad applicazioni sperimentali (e non) che hanno fatto molto discutere. Dall’Asia all’America, il tema è all’ordine del giorno.
L’Europa, terra dei diritti, mostra maggiore cautela in tal senso. Sperimentazioni vi sono state – ad esempio, nell’ambito della predizione di polizia, al fine di tracciare le zone urbane più pericolose. Tuttavia, principi consolidati e tradizioni costituzionali esigono una maggiore ponderazione, a confronto con quanto accade oltreoceano.
Così, nelle more dell’approvazione di un regolamento europeo in materia di A.I. e diritti fondamentali, la direttiva (UE) 2016/680 parla chiaro: decisioni pregiudizievoli automatizzate sono da ritenersi precluse. Deve, in altri termini, figurare la disponibilità del c.d. “controllo umano significativo”. Ad oggi, è quindi difficile immaginare un giudice robot che, in stile “2001: Odissea nello Spazio”, prenda il controllo esclusivo delle vicende umane.
Giudicare, com’è noto, è un compito difficile. Esiste un profluvio di letteratura già solo sulla tendenziale imponderabilità della decisione umana, male comunque necessario. A più forte ragione, sono pienamente comprensibili le riserve espresse in punto di decisione automatizzata. Se mai fosse possibile accogliere (quasi) a cuor leggero il supporto dell’A.I. per calcoli attuariali di rilevanza civilistica, va da sé che la vicenda penale ponga ben altre perplessità.
L’astratta disponibilità di strumenti volti, ad esempio, a calcolare il rischio di recidiva, deve fare i conti con il tessuto di garanzie costituzionali e non che innervano il procedimento penale in Europa e, specificamente, in Italia.
La circostanza che i codici di funzionamento degli algoritmi siano spesso criptati (cc.dd. black boxes) renderebbe difficile attuare un contraddittorio effettivo, esplicazione tecnica del diritto di difesa. Riesce analogamente complesso immaginare come l’impiego sostanzialmente unilaterale di questi strumenti (in capo al giudice o, al meglio, all’accusa) possa coordinarsi armonicamente col principio della parità in armi. Al netto, peraltro, delle difficoltà relative all’“inquadramento processuale” dei dispositivi in questione (perizie o prove atipiche? Da cui, una serie di sostanziali differenze di regolamentazione e di collocamento di fase, esecutiva o cognitiva).
Da più parti si è pure sollevata la questione della qualità dei dati assunti come input della predizione: sulla base di quali informazioni gli algoritmi effettuano i loro calcoli? Le scelte discrezionali dei programmatori appaiono dirimenti, in tal senso, rafforzando rischi di biases razziali. Il problema, evidentemente, si pone con particolare riferimento alla situazione statunitense, ma non solo.
Allo stesso modo, il pericolo della sostanziale (quanto subdola) configurabilità di responsabilità penali oggettive è dietro l’angolo. Molteplici studi hanno infatti messo in evidenza i rischi dell’anchoring: la fideistica devozione alla tecnologia, una sorta di ipse dixit processuale che, istintivamente, sembra emergere dall’interazione uomo – macchina, a fronte di una presunta oggettività della medesima, con buona pace dell’individualizzazione del trattamento sanzionatorio. Il monito, peraltro, riguarda la tecnologia nel suo complesso ed è stato formulato, inter alia, anche in rapporto all’applicazione processuale di strumenti d’indagine neuroscientifica. Posto che una comprensione, sia pur sommaria, del funzionamento di queste tecniche potrebbe – d’altro canto e paradossalmente – sfociare in una loro “manipolabilità” da parte di chi vi sia sottoposto. Tanto, pure a detrimento del valore dell’accertamento della Verità e delle ragioni delle altre parti processuali.
Con ogni evidenza, il giusto processo costituzionale ed europeo dovrebbe rimanere impermeabile a derive distopiche. Non necessariamente, lo spirito del tempo, da monitorare con altrettanta – se non maggiore – attenzione.
Lungi dal voler apparire aprioristicamente conservatori, si tratta – piuttosto – di mettere in evidenza tutte le criticità che la materia porta con sé. Non è in discussione l’innegabile supporto che la tecnologia offre quotidianamente alle nostre vite. Il tema, semmai, è quello di attribuire il giusto spazio all’A.I., in un comparto della vita sociale particolarmente delicato.
Il processo, specificamente quello penale, è il luogo dei diritti e delle garanzie e tale deve rimanere. Tale è la sua risalente configurazione europea. Affinchè strumenti tanto innovativi vi facciano ingresso, servono conoscenza, trasparenza e formazione specifica degli operatori del diritto. Occorrono, inoltre, le tecnologie adeguate. Altrimenti, il rischio di una sostanziale devoluzione decisionale alla macchina assume dimensioni spropositate.
Servono, parimenti, regole precise. Non sono sufficienti la Carta etica europea del 2018 – d’altronde, si tratta di soft law – o le (poche) disposizioni della direttiva menzionata. Grandi speranze, per la verità, risiedono nel regolamento in fieri. L’iter di definizione, tuttavia, si prospetta comprensibilmente travagliato. L’auspicio è che i passi in avanti fatti negli ultimi mesi confluiscano in un risultato pregnante, fondato sull’assunto che la tecnologia è uno strumento dell’Uomo, per l’Uomo, univocamente volto al servizio dei diritti fondamentali. Inversioni nei “rapporti di forza” appaiono intollerabili, a maggior ragione in ambiti tanto peculiari.
La strada da fare è ancora lunga: la si deve percorrere con la consapevolezza che avanzamenti normativi stentati rischiano di non seguire il passo, ontologicamente più veloce, del progresso tecnico-scientifico.

Giuseppe Mastromarco
Dottorando di ricerca in “Diritti, Istituzioni e Garanzie nelle Società in transizione” – Università degli Studi di Bari “Aldo Moro”