Focus

Giustizia predittiva: la giustizia è questione di un algoritmo?

Sommario

Introduzione | L’intelligenza artificiale è un rischio per la società e l’uomo? | Piano di sviluppo coordinato dell’UE sull’ intelligenza artificiale | Cosa è la giustizia predittiva? | La legge e la giustizia non sono riducibili ad equazioni | L’intelligenza artificiale può prevedere a priori il ragionamento del giudice o spiegarne a posteriori il comportamento? | Fonti |

Introduzione

Il Consiglio d’Europa, tramite il Consiglio dei Ministri, suo organo decisionale, ha pubblicato il 13 febbraio 2019 la Dichiarazione n. 24/2019, con la quale ha lanciato un allarme sui rischi di manipolazione dovuti all’uso di tecnologie digitali avanzate, soprattutto alle tecniche di micro-targeting.
In particolare, nel documento si pone in rilievo che l’intelligenza artificiale avrebbe avuto una recente evoluzione potenzialmente nociva alle società democratiche, creando modelli in grado di predire il comportamento di alcuni gruppi e categorie di persone (giustizia e polizia predittiva), catalogandole in schemi comportamentali chiusi, rigidi e preconcetti. L’UE ha parimenti adottato, l’11 febbraio 2019, un suo analogo piano coordinato sullo sviluppo e l’uso dell’intelligenza artificiale “made in Europe”.

L’intelligenza artificiale è un rischio per la società e l’uomo?

In breve, secondo il Consiglio dei Ministri, un individuo rischia di essere privato del suo libero arbitrio e di essere in mano ad una macchina, influenzato e guidato nelle sue scelte economiche, politiche e sociali, anche in via subliminale. Questo documento, de facto, aggiunge un ulteriore tassello sui problemi etici e di tutela dei diritti fondamentali evidenziati ed approfonditi nei due focus sulla Carta etica sull’uso dell’ intelligenza artificiale nei sistemi giudiziari e sulle Linee guida sulla privacy e l’ intelligenza artificiale, discussi ulteriormente nella Conferenza di Helsinki: sarà fatto un quadro completo sullo stato dell’evoluzione, dell’impatto sulle nostre vite e nei sistemi giudiziari. Nel frattempo la Dichiarazione, prodromica alla Conferenza stessa, è un grido di allarme su come queste tecnologie, sempre più evolute, stiano diventando prevaricanti ed in grado di influenzare anche le nostre emozioni, usando tecniche subliminali, sì da essere considerate nocive per la democrazia. Ergo il Consiglio dei Ministri invita i 47 Stati membri ad adottare numerose, appropriate e proporzionate misure per dotarsi di garanzie giuridiche efficaci ed effettive contro i rischi d’interferenze illegittime e per responsabilizzare gli utilizzatori promuovendo competenze critiche in materia di alfabetizzazione digitale. In particolar modo la Dichiarazione insiste nel valutare il quadro normativo e regolamentare sulle comunicazioni politiche e sui processi elettorali, per preservarne l’equità e per garantire che gli elettori abbiano accesso a livelli d’informazione su tutti gli ambiti politici, proteggendoli da rischi di manipolazioni e pratiche sleali. Infatti l’uso di queste tecnologie dona all’entità pubbliche ed agli attori privati un potere immenso visto che possono usare questi algoritmi senza supervisione od un adeguato controllo democratico, sottolineando la necessità che incombe sul settore privato di agire con equità, trasparenza e responsabilità seguendo le indicazioni fornite dalle istituzioni pubbliche.

Piano di sviluppo coordinato dell’UE sull’ intelligenza artificiale

Questo documento del Consiglio dell’UE invoca un incremento dell’uso dell’ intelligenza artificiale, seppure con i dovuti accorgimenti.

Infatti “sottolinea l'importanza cruciale di promuovere lo sviluppo e l'utilizzo dell'intelligenza artificiale in Europa aumentando gli investimenti nel settore, rafforzando l'eccellenza nelle tecnologie e applicazioni di intelligenza artificiale e intensificando la collaborazione tra industria e mondo accademico nella ricerca e nell'innovazione in materia di intelligenza artificiale, così da trasferire rapidamente ed efficacemente all'industria - e in seguito ai mercati, al settore pubblico e ai consumatori - nuovi risultati e conoscenze acquisite nella ricerca sull'intelligenza artificiale”. Inoltre “sostiene l'ampia diffusione delle capacità in materia di intelligenza artificiale e un ampio accesso alle stesse in ogni Stato membro, ad esempio mediante la piattaforma di intelligenza artificiale on demand, la rete di poli e cluster dell'innovazione digitale, come anche la rete di centri di eccellenza, tramite i programmi proposti per il prossimo quadro finanziario pluriennale (QFP), quali Europa digitale, InvestEU, Orizzonte Europa e il programma per il mercato unico, fatti salvi i negoziati in corso sul prossimo QFP; sottolinea l'importanza di un'azione coordinata per massimizzare l'impatto degli investimenti fatti a livello europeo, nazionale e regionale, compresi quelli sostenuti dalla Banca europea per gli investimenti, al fine di accrescere la competitività dell'industria europea a livello globale; pone l'accento sull'importanza dei programmi contenuti nel prossimo QFP per lo sviluppo futuro dell'intelligenza artificiale nell'UE; 6. sottolinea che è necessario mettere a disposizione, con le opportune garanzie, dati più sicuri e di più elevata qualità detenuti dal settore pubblico e da quello privato, al fine di sviluppare le tecnologie dell'intelligenza artificiale e creare spazi comuni europei dei dati affidabili, che consentano ad esempio lo sviluppo di nuovi prodotti e servizi sulla base di dati, ivi compresi un quadro di interoperabilità e una governance per la condivisione dei dati e le prassi di riutilizzo; esorta a sviluppare soluzioni sicure per garantire un facile accesso ai dati e l'integrità degli stessi; riconosce l'esigenza di sviluppare e rafforzare le capacità di base dell'intelligenza artificiale nell'Unione, tra cui risorse di dati, meccanismi affidabili per lo scambio dei dati quali magazzini virtuali di dati e archivi di algoritmi; sottolinea l'importanza di siti di riferimento a grandezza naturale per la prova e la sperimentazione dell'intelligenza artificiale nell'UE, conformemente al quadro giuridico dell'UE”.

 

In ogni caso l’uso di queste tecnologie necessita di un’armonizzazione delle norme e dei regolamenti degli Stati membri in materia, di personale altamente specializzato nel progettare ed usare queste tecnologie e di gruppi di esperti, soprattutto dell’OSCE, che vigilino costantemente su ogni fase del processo (dalla creazione alle applicazioni concrete dell’ intelligenza artificiale) per garantire il rispetto dell’equo processo e dei diritti fondamentali che rischiano di essere lesi da questi automatismi, specialmente quando tendono ad azzerare l’intervento e le libere scelte dell’uomo.

Cosa è la giustizia predittiva?

Si parla non a caso di giudice ed avvocato robot per indicare non solo le persone che sono dotate e sanno usare l’intelligenza artificiale e se ne avvolgono per amministrare la giustizia (migliori servizi per i clienti, delineare orientamenti della prassi ed esegesi delle leggi più uniformi a vantaggio della certezza del diritto e dell’uguaglianza dei cittadini), ma anche l’attività di dematerializzazione e virtualizzazione della giustizia, ove ogni azione e fase è scandita e decisa da una macchina.

Ciò ha portato alla nascita di una nuova branca del diritto la c.d. giustizia predittiva che, assieme alla c.d. polizia predittiva, basa il suo funzionamento su schemi rigidi e predefiniti di comportamento, linee guida, casistiche etc., elaborati da complessi algoritmi di una learning machine, in grado di predire l’esito di una sentenza e catalogare il comportamento delle parti, inserendoli in c.d. ranges (non solo il grado di delinquere, la recidiva, la pericolosità di un individuo, ma anche la durata di un matrimonio, come orientare alcune scelte del giudice in determinate cause civili e familiari etc.), predisporre tabelle per il risarcimento danni, indennizzi e saldo d’indennità di vario genere, per rendere più efficace, certa ed equa la giustizia, ma in realtà non sembra aver raggiunto il suo scopo ed ha sollevato molte discussioni di natura etica e di rispetto di valori costituzionali ed universali.

Nel focus sulla Carta etica dell’uso dell’ intelligenza artificiale nei sistemi giudiziari si è visto che è una realtà consolidata in Europa (Olanda, Francia, Regno Unito, Usa, Canada, Lettonia etc.) ed anche in Italia è stata introdotta recentemente da alcune Corti (Bari, Venezia e Brescia) per lo più in via sperimentale solo per uniformare le prassi in alcuni settori (licenziamenti, protezione internazionale, materia giuslavoristica e civile) avvalendosi di esperti nei relativi settori (infortunistica stradale, medicina legale, ingegneria agraria, diritto societario, industriale, accademici etc).

Un originale contributo al dibattito è stato offerto da Viola (La giustizia predittiva), ideatore della tesi dell’interpretazione della legge tramite i modelli matematici, secondo cui “la giustizia predittiva è una realtà nell’ordinamento giuridico, come si è evidenziato. La sua giustificazione logica sorge dalla stessa ratio del diritto, che è quella di assicurare certezza. In altri Paesi, vengono ampiamente utilizzati algoritmi predittivi; in Italia ciò sarà possibile solo nella misura in cui ci si adeguerà ai canoni interpretativi dell’art. 12 preleggi, accettandone anche i limiti”. Infatti a suo dire “il diritto può essere costruito come una scienza, che trova la sua principale ragione giustificativa nella misura in cui è garanzia di certezza: il diritto nasce per attribuire certezza alle relazioni umane, tramite una complessa attribuzione di diritti e doveri”.
Il testo degli artt. 3 Cost., 12 preleggi cc., 56 c.c., 348 c.p.c., i principi di armonizzazione del diritto e della prassi, dell’interpretazione conforme, di chiarezza, di prevedibilità del diritto, di effettività e di uguaglianza sanciti dal diritto comunitario e, seppur non citato nel commento in questione, dall’art. 6 Cedu sarebbero mere espressioni di algoritmi, sì che più o meno direttamente suffragherebbero la tesi di un modello matematico del diritto e della possibilità che la giustizia possa essere amministrata da algoritmi, nei limiti in cui sia funzionale alla certezza del diritto. La tesi è suffragata da prassi interna ed internazionale ed opinioni di altri autori e filosofi (Liebniz e Webber) secondo cui ogni controversia è quantificabile tramite calcoli matematici e la razionalità formale passa dalla calcolabilità completa dell’ordinamento giuridico.

 

La legge e la giustizia non sono riducibili ad equazioni

Si noti che essendo una materia in continuo progresso anche l’evoluzione delle teoria e dottrina sulla stessa è in continuo fieri. Sin dalle premesse evidenzi contraddizioni in termini, qualche forzatura e confermi, de facto, tutti gli allarmi lanciati dal Consiglio d’Europa e dall’UE, le cui sopra citate fonti smontano questa tesi e da altri critici (tra cui Castelli e Piana): proprio i principi di certezza del diritto, di nulla poena sine lege, di presunzione di innocenza, di equo processo, di divieto di discriminazione etc. elaborati anche alla luce dei precetti della Carta di Nizza (artt. 20, 21, 47-50) e della Cedu (artt.6,7, 13, 14, 2 e 4 protocollo 7) escludono a priori che la giustizia possa essere ridotta ad una mera formula matematica, impiegata spesso senza la supervisione e l’intervento dell’uomo, riducendo tutto ad un “se … allora”, id est ad una logica prospettica-predittiva ove tramite un ragionamento analitico, induttivo (si ricavano risultati da dati e modelli precedenti, secondo il funzionamento, dei vecchi sistemi automatizzati) e deduttivo (i nuovi sistemi ricavano modelli mettendo in corrispondenza dati con risultati specifici preesistenti).

Le crepe di questa teoria matematica sono state denunciate e messe in evidenza nei principi cardine che devono orientare gli sviluppatori, i produttori e gli utilizzatori dell’AI e nello studio sul tema contenuti, come più volte ricordato nella Carta etica, nelle Linee guida e nelle fonti sinora analizzate nei precedenti focus: con l’automatizzazione e la creazione di questi schemi che rischiano, soprattutto nel penale, di essere preconcetti, rigidi e discriminatori si rischiano derive deterministiche e discriminatorie, facendo venire meno l’autodeterminazione umana, la neutralità, l’imparzialità e l’indipendenza del giudice. Dall’altra parte, tuttavia, esse possono essere adeguati per la dematerializzazione dei fascicoli, offrire strumenti utili (uniformità della prassi secondo determinate casistiche di reato, questioni connesse al lavoro, alla RCA, alla pratiche commerciali, regolate dal diritto civile etc.), alla mediazione, rendendo più snella, celere, efficace e meno costosa la giustizia.

Questi modelli rigidi sollevano enormi ed ovvi problemi di costituzionalità (artt. 24, 101 Cost. etc.) come evidenziato in un recente convegno a Catania su queste tematiche. In questo ed in un altro concomitante workshop diversi studiosi hanno evidenziato i pregi ed i molti limiti di questa nuova scienza, branca del diritto, stilando un decalogo per i giuristi e gli avvocati sostanzialmente in linea con la Carta e le linee guida sulla privacy del Consiglio d’Europa (v. amplius C. Morelli elencato nelle Fonti).

 

Deve essere sempre preponderante l’intervento dell’uomo, anche riconoscendo un valore fondamentale al controllo degli esperti.
Infatti alcuni critici (Castelli e Piana) rilevano come questi modelli volti ad uniformare le esegesi della prassi, se ben usati e sotto il controllo del giudice, che deve essere libero di discostarsene in ogni momento, possono favorire l’uguaglianza e la certezza del diritto, dato che spesso non solo tra omologhe Corti sul territorio nazionale, ma anche all’interno di una stessa Corte e spesso nelle stesse sezioni ed identici colleghi giudicanti della Cassazione si è giunti a conclusioni diametralmente opposte su identiche cause: secondo questi autori perché spesso, al di là delle diversità geografiche ed alla relativa diversa incidenza di alcune liti in determinati settori, talvolta si emettono sentenze per cercare il consenso del pubblico e spesso si ricorre alla c.d. giustizia creativa, non sempre utili alla buona amministrazione della giustizia ed all’ispirare la fiducia della collettività in essa. Infine, per mera curiosità, si ricordi che Lombroso, ideatore della fisiognomica e della moderna criminologia, che usava modelli predittivi e predefiniti per catalogare gli individui prevedendone la moralità e la psicologia dall’analisi dell’aspetto fisico, dalla caratteristiche e dalle espressioni del volto (caratteri atavici etc.), in base alla sua stessa scienza è stato catalogato come criminale affetto da cretinismo congenito. In breve si deve passare da un’esegesi matematica delle leggi ad una in cui la macchina sia al servizio dell’operatore del diritto come utility per il suo lavoro, non come bussola: l’uomo deve poter discostarsi dai modelli matematici creati dalla macchina, rendendoli più flessibili ed adattandoli di volta in volta al peculiare caso concreto da esso trattato e deciso.

L’intelligenza artificiale può prevedere a priori il ragionamento del giudice o spiegarne a posteriori il comportamento?

Laddove l’applicazione di queste tecniche ha permesso un incremento della percentuale di successo delle sentenze (sempre che si possa usare propriamente questo termine nella giustizia) e di prevedibilità delle decisioni con ampi risparmi sui costi-tempi di giustizia (Piattoforma Prometeia della Corte Superiore di Giustizia di Buenos Aires ha concluso con successo in una settimana 1000 casi ripetitivi rispetto agli 83 senza l’uso di learning machine con una percentuale di successo, rispetto al numero di soluzioni effettivamente adottate nel passato dai magistrati, pari al 96% dei casi, la giustizia predittiva in USA, Canada etc.), dall’altro ha registrato clamorosi flop come l’esperimento francese delle Corti di Rennes e Douai che applicando algoritmi a cause civili e commerciali ha portato a risultati aberranti ed inappropriati per la confusione fatta tra le scelte lessicali delle motivazioni e le causalità che avevano determinato i ragionamenti dei giudici studiati dal sistema. I problemi legati alla semantica, alle diverse interpretazioni dei lemmi, soprattutto quando si tratta di applicare leggi soggette a pluralità di esegesi lessicali, come quelle comunitarie e la possibilità che i dati possano essere hackerati sono grossi limiti all’impiego dell’AI, oltre a questi evidenziati da questo esperimento e quelli sinora descritti.

 

A sostegno della tesi che la giustizia (rectius l’esegesi delle leggi e della prassi) non possa essere ridotta ad una mera equazione si citi il noto Studio dell’University College of London (UCL) sulle sentenze emesse dalla CEDU e già passate in giudicato (meglio descritto nello Studio del gruppo di esperti in appendice della Carta etica dell’uso dell’AI): partiva dal postulato che una learning machine fosse in grado di prevedere con una percentuale di esattezza pari al 79% il comportamento decisionale dei giudici di questa singola Corte: ciò è stato rispettato solo per la descrizione dei fatti, ma non per le motivazioni addotte. In primis da questo altro esperimento gli esperti che hanno evidenziato una forte improbabilità che la giustizia predittiva possa effettivamente attecchire nei sistemi di Civil Law, come il nostro, mentre ha avuto ampio successo in quelli di Common law, ove vige il principio del precedente vincolante, inesistente nella nostra cultura giuridica. Premesso che ogni causa, seppure ripetitiva, ha caratteristiche e circostanze uniche e deve prendere in considerazione numerose variabili, sì da essere difficilmente riducibile ad uno schema induttivo-deduttivo rigido della AI come quelli sinora criticati,, si deve tener conto che il giudice, quale bouche de la loitende a far valere nella sua sentenza le proprie ragioni, convinzioni e dovrà convincere il pubblico e le parti della sua buona fede e della bontà di questa o quella altra soluzione alla base della sua decisone, dovendone dimostrare l’integrità di tutte le fasi che hanno concorso ad assumerla”. Come sinora evidenziato ogni decisione nasce non solo dalla combinazione di variabili e peculiari circostanze sottese al caso concreto da decidere, ma soprattutto è emessa sulla base dei facta et alligata prodotti dalle parti: questo principio è un pilastro delle nostre giustizia e democrazia per ovvi motivi, come escludere ogni sorta di arbitrio che porti alla lesione dell’equo processo ed delle garanzie processuali della parti. Si potranno predire a priori, semmai, alcune categorie di ipotesi e fattori comuni a casi ripetitivi su una data problematica giuridica, ma sarà difficile se non impossibile predire a posteriori le modalità di decisione del singolo giudice. In breve questo Studio ha dimostrato l’ambiguità della giustizia amministrata da algoritmi che non potranno mai sostituire l’unicità del ragionamento umano del giudicante, dimostrando come la giustizia predittiva non sia poi così utile ed efficace come auspicato dai suoi fautori. Xavier Linant de Bellefonds, a tal proposito, soleva dire che la complessità del diritto attiene alla complessità del suo carattere teleologico e contenzioso: “ due ragionamenti coerenti possono condurre a due differenti conclusioni in funzione dei due ordini d’imperativi”. Lo stesso si potrebbe dire se il diritto fosse considerato una scienza: la complessità, il volume immenso e la stessa circolarità dei dati confluiti e processati dalla learning machine limitandosi a mere statistiche e dati processati secondo le regole del loro ideatore non potrà mai tenere conto di queste peculiarità e sfumature, come dimostrato dall’esperimento dell’UCL. Il fallimento della giustizia predittiva a favore di quella classica, secondo lo Studio dell’UCL, è confermato dal tentativo di creare range sull’affidamento della prole minorenne, in sede di separazione o divorzio, alla madre, in genere un vero assioma negli ordinamenti degli Stati membri. Si è invece dimostrato come sia un ragionamento iniquo e l’impossibilità di stabilirne, a priori ed a posteriori, la validità del ragionamento, perché la macchina non teneva conto di altri criteri come le condizioni economiche dei genitori, le loro dinamiche nel ripartirsi la cura della prole, l’ambiente lavorativo e sociale dei genitori, l’aiuto ed il ruolo di altri familiari, in primis dei nonni, le effettive esigenze scolastiche, logistiche e sociali del minore: l’analisi era focalizzata sulla c.d. maternal preference, anziché sull’interesse superiore del minore che ha sempre orientato queste decisioni, come confermato per altro dalla più recente e prevalente prassi della CEDU che ha ribadito la necessità di mantenere i rapporti col padre e con i nonni, stigmatizzando invenzioni pseudo mediche come la PAS (K.B. c. Croazia del 14/3/17, Endrizzi c. Italia del 23/3/17, Bondivalli c. Italia del 17/11/15, Manuello e Nevi c. Italia del 20/1/15- sull’equivalenza del rapporto genitori- figli e nonni e nipote, che fu la prima del genere così come Niccolò Santilli c. Italia del 17/12/13 in cui si è interrotto per la prima volta il predominio materno portando, in tempi recenti, alla nuova teoria del gender neutral nell’affido dei minori: Tribunale di Milano, decreto del 19 ottobre 2016).

Tutte queste fonti evidenziano come la giustizia predittiva, intesa come capacità di anticipare a priori tali decisioni, sia destinata a fallire anche perché non tiene conto della formazione dei giudici (togati ed onorari nel nostro ordinamento), del fatto che alcune sentenze sono emesse in sede collegiale e non monocratica e delle varie differenze socio-giudiziarie del territorio nazionale.

In conclusione vista la scarsa affidabilità dei modelli matematici nell’amministrare la giustizia e della giustizia predittiva stessa, per averne una realmente efficace, utile, certa e di qualità si dovrà ripensare e ridimensionare la creazione e l’impiego di questi algoritmi, riportandoli al loro ruolo di strumenti al servizio dell’uomo, il cui libero arbitrio ed intelletto dovranno essere assolutamente predominanti, riappropriandosi del proprio ragionamento critico e della consapevolezza delle sue scelte prive di condizionamenti di sorta.

Fonti

 

 

Leggi dopo