Avvocato e dottore in Scienze storiche. Ha al suo attivo pubblicazioni sul federalismo (Le origini del federalismo: il Covenant, 1996; Il sacro contratto. Studio sulle origini del federalismo nordamericano, 1999). Ha inoltre pubblicato Sovranità. Teologia e sacro alle origini di una categoria politica (2015); Il regime alimentare dei monaci nell'alto medio evo (2017), Paura e Rivoluzione francese nell’opera di Guglielmo Ferrero (2021); Un nuovo romanticismo per il nuovo secolo (2024) . Inoltre ha curato la riedizione del volume di Guglielmo Ferrero Palingenesi di Roma antica (2019). E' autore di articoli e relatore in convegni di studio.
«Le juge est la bouche qui prononce les paroles de la loi». Lo si sa: la citazione montesquieana (Esprit des lois, Libro XI) è un vecchio mito dell’illuminismo giuridico, la stella polare dei positivisti per i quali la certezza della legge (e del diritto) si colloca molto più in alto della libertà degli interpreti e della storicità del diritto vivente.
Anche Max Weber non si sottrasse al fascino dell’idea, ma in lui l’esigenza della certezza faceva tutt’uno con l’altrettanto sacrosanta esigenza della razionalità del diritto. Anzi: in un sistema capitalistico avanzato l’operatore economico, ancor più del semplice cittadino, aveva (e ha) disperato bisogno di conoscere in anticipo non solo l’esatto rapporto tra costi e benefici dell’intrapresa economica ma anche gli esiti giuridici delle scelte economiche e dei rapporti contrattuali. Weber teorizzava una giustizia «il cui funzionamento possa, almeno in linea di principio, venire calcolato razionalmente […] nello stesso modo in cui si calcola la prestazione prevedibile di una macchina». Insomma: un diritto calcolabile razionalmente, un diritto pre-impostabile, come una macchina automatica, o un diritto matematizzato, procedente per teoremi, deduzioni e sillogismi di ferrea consequenziarietà logica, date certe premesse. Oggi questi approcci al diritto, non nuovi e risalenti anche alle età precedenti l’illuminismo (si pensi a Jean Domat, grande giurista del Seicento francese), ritornano attuali e si combinano con l’informatica giuridica e l’introduzione sempre più pervasiva dell’Intelligenza Artificiale nel mondo del diritto. E tuttavia l’applicazione della logica delle macchine algoritmiche alla giustizia, e in particolare la sua applicazione al momento cruciale della decisione giudiziaria, apre scenari inquietanti e potenzialmente devastanti per la civiltà giuridica per come la conosciamo.
Ci si deve intendere: la norma generale racchiude in sé una previsione appunto generale e astratta dei fatti tipici che intende regolamentare. Senza la tipicità predefinita e la ripetibilità del fatto tipico non è possibile alcun inquadramento giuridico delle fattispecie. La norma è anche previsione, nel senso che si basa sulla ripetibilità accertata nel tempo di alcune dinamiche, o fatti o condotte. La norma legge e regolamenta le condotte connotate da ripetibilità e proiettate nel tempo. La ripetibilità nel tempo non significa la riproposizione meccanica del già noto perché il tempo conosce una dimensione umana evolutiva. Da qui il ruolo fondamentale dell’interprete nell’applicazione della norma ai fatti noti ma anche a quelli ignoti e inediti e imprevedibili. La giurisprudenza adegua la norma al tempo, alla qualità dei soggetti coinvolti, alla peculiarità del contesto, alle esigenze di equità, ragionevolezza e opportunità. In altri termini la giurisprudenza – lavoro congiunto di giudici, avvocati operatori del diritto – si sforza di garantire che la norma generale e astratta resti al servizio degli uomini. Il prezzo da pagare per questa “umanità” della legge è elevato: incertezza, soggettività, arbitrio, sentenze “creative” e quant’altro. Siamo molto lontani da quel diritto calcolabile razionalmente cui si riferiva Max Weber.
La giustizia predittiva basata sull’algoritmo obbedisce a una logica diversa. La macchina informatica viene per così dire riempita di una mole ingente e inimmaginabile di dati ricavati dal passato e correlati statisticamente in combinazioni potenzialmente illimitate. Si amplia a dismisura la previsione dei casi e il dato quantitativo-statistico predetermina la soluzione del caso giuridico: se casi analoghi statisticamente sono stati risolti in un certo modo, anche il caso presente troverà il medesimo esito. Qui la ripetibilità viene cristallizzata e riproposta (o meglio: imposta) meccanicamente, senza alcun riguardo per quelle peculiarità del caso concreto che risultino estranee o irriducibili ai precedenti delle massive correlazioni statistiche. E non solo: il tempo, il momento evolutivo e gradualistico del formarsi di nuove condotte sociali (destinate a sfociare in nuove condotte e regole giuridiche) non assumono alcun rilievo per la logica dell’algoritmo. Il fattore tempo per l’algoritmo non esiste, o meglio esiste soltanto nella sua dimensione astratta e vuota, meramente formale. In tal modo il diritto – o quantomeno la decisione giudiziaria – sarebbe destinato a ripetersi senza mai cambiare o trasformarsi, in quanto completamente appiattito sulla massa dei precedenti di rilievo quantitativo e statistico. Il diritto giurisprudenziale o la common law attribuiscono massima importanza ai precedenti giudiziari ma questi sono di volta in volta letti e interpretati e adattati alla peculiarità del caso concreto; il “precedente” dell’algoritmo è una raccolta di big data letti senza consapevolezza e dai quali, sempre senza consapevolezza, viene estrapolata la regola o la decisione del caso concreto.
Da più parti si sostiene che la giustizia predittiva su basi algoritmiche soddisferà finalmente la sete di certezza giuridica, neutralità e imparzialità, con l’ulteriore beneficio della efficienza e rapidità. Non si può negare che entro il proprio contesto l’algoritmo proceda con cieca e meccanica imparzialità. Ma, appunto, nel suo proprio contesto: impostato in un certo modo, l’algoritmo deciderà in misura razionale (date le premesse), prevedibile, oggettiva. Ma il punto critico sta proprio nelle premesse: chi imposta la macchina algoritmica? Con quali dati? Con quali criteri di correlazione statistica? A seconda di come viene impostato, l’algoritmo condurrà in un senso o in un altro, certamente senza arbitri creativi o abusi soggettivi (quindi imparzialmente). Ma se le premesse sono false o abnormi, l’esito sarà altrettanto falso o abnorme. Non si tratta di pura teoria perché è già più volte accaduto (negli USA: in Wisconsin e altrove) che alcuni algoritmi predittivi, impostati sulla base di statistiche fuorvianti o penalizzanti certe categorie sociali o razziali, abbiano condotto a ingiuste decisioni giudiziarie. Se la statistica racconta che in una data realtà un pregiudicato di colore è più propenso a commettere nuovi crimini rispetto a un pregiudicato bianco, il primo più difficilmente del secondo potrà accedere a misure alternative alla detenzione, e ciò non per peculiarità sue personali ma per una decisione algoritmica priva di consapevolezza e basata sul quantum statistico. Ma gli esempi potrebbero moltiplicarsi. La decisione algoritmica presenta l’indubbio vantaggio di essere più neutra, rapida ed efficiente. Ma non è necessariamente la più giusta, o la più equa.
Sono state proposte varie accezioni di “giustizia predittiva”. L’accezione più radicale e tranchant, ripresa e criticata dal filosofo del diritto Giuseppe Zaccaria, sarebbe la seguente: «sostituzione dell’algoritmo alla giurisdizione umana»[1]. Il legislatore italiano nel disegno di legge sull’Intelligenza Artificiale ribadisce, in un’ottica garantista e difensiva, la genesi umana delle sentenze e relega l’IA a strumento ausiliario del giudice, utile supporto per rassegne di precedenti giurisprudenziali e di correlazioni statistiche. La decisione delegata all’algoritmo segnerebbe davvero una rottura con la tradizione giuridica e ci condurrebbe in lande inesplorate. I momenti salienti della selezione dei dati e della discrezionalità nelle scelte, insieme con tutto il contesto psicologico e ambientale del caso concreto, verrebbero azzerati e sostituiti dai meccanismi automatizzati e tecnico-ingegneristici dell’algoritmo. Ma a quel punto, chi sarebbe il soggetto responsabile della decisione?
Il giudice si limiterebbe a essere l’ultimo anello di una catena di passaggi automatici e anzi, a ben vedere, non ci sarebbe neppure più bisogno di lui. Ma senza arrivare a casi così estremi, si può circoscrivere la domanda: chi è responsabile di una decisione giudiziaria presa sì dal giudice, ma sulla base delle risultanze algoritmiche? Il giudice è in grado di padroneggiare tecnicamente gli elementi matematico-informatici e statistici posti alla base del funzionamento dell’algoritmo? Possiede cioè piena consapevolezza deli presupposti della decisione? Oppure l’ipotetica responsabilità va estesa anche ai produttori dell’algoritmo nonché ai tecnici specialisti e agli ingegneri informatici che hanno matematicamente impostato l’algoritmo?
L’applicazione dell’Intelligenza Artificiale alla giustizia non va demonizzata e anzi sono in corso svariati progetti miranti all’implementazione delle macchine algoritmiche nell’organizzazione giudiziaria (Corte d’Appello di Bari; Corte d’Appello di Brescia; Corte d’Appello di Venezia; Tribunali di Genova, Pisa e Firenze) e si ha fiducia che i benefici supereranno i costi. L’onda di entusiasmo per i fascinosi afflati futuristici della commistione tra Intelligenza Artificiale e giustizia non è arginabile né sarebbe saggio arginarla. Purché resti salda e vissuta con sincera partecipazione la concezione umanistica del jus.
[1] G. Zaccaria, La responsabilità del giudice e l’algoritmo, Mucchi Editore, Modena 2023, p. 56.