Avvocato

Avvocato e dottore in Scienze storiche. Ha al suo attivo pubblicazioni sul federalismo ("Le origini del federalismo: il Covenant”, 1996; "Il sacro contratto. Studio sulle origini del federalismo nordamericano", 1999). Ha inoltre pubblicato "Sovranità. Teologia e sacro alle origini di una categoria politica" (2015); "Il regime alimentare dei monaci nell'alto medio evo” (2017), “Paura e Rivoluzione francese nell’opera di Guglielmo Ferrero” (2021). Inoltre ha curato la riedizione del volume di Guglielmo Ferrero "Palingenesi di Roma antica” (2019). E' autore di articoli e relatore in convegni di studio.

Recensione a: A. Celotto,  “Sudditi”. Diritti e cittadinanza nella società digitale, Giuffré Francis Lefebvre, Milano 2023, pp. 152, € 20,00.

La rivoluzione digitale nella quale viviamo da venticinque anni sta massicciamente investendo anche il mondo della giustizia e della pubblica amministrazione. Si pensi all’introduzione di procedure telematiche nella gestione delle pratiche amministrative. In questi ambiti il saldo (ad oggi) sembra positivo in termini di guadagno di efficienza, velocizzazione e snellimento dei procedimenti. Anche gli uffici giudiziari grazie agli strumenti informatici conoscono una più razionale organizzazione. Ma si sta sempre più prepotentemente delineando un altro aspetto della rivoluzione informatica nel mondo della giustizia: il ricorso agli algoritmi e alla Intelligenza Artificiale nella formazione delle decisioni giudiziarie e della pubblica amministrazione: la decisione robotizzata; il giudice sostituito dall’algoritmo “decisionale”. Tema complesso e inquietante.

Di questo e di altri impatti giuridici, sociali e politici della rivoluzione digitale si occupa il costituzionalista Alfonso Celotto nel saggio oggi in commento. Il volume, snello ed essenziale, si propone quale introduzione a tematiche meritevoli di ulteriori approfondimenti ma privilegia in modo originale una angolatura giuridico-costituzionale: il mondo del web, con i suoi giganteschi Players OTT (Over The Top) da fatturati pari ai PIL degli Stati, e gli algoritmi dell’Intelligenza Artificiale ci stanno rendendo sudditi, da cittadini costituzionalmente tutelati quali prima eravamo?

Torniamo al tema dell’Intelligenza Artificiale applicata alla risoluzione delle controversie giudiziarie o ai procedimenti nella pubblica amministrazione. La tentazione tecnocratico-ingegneristica di automatizzare grazie alle macchine intelligenti e in nome dell’efficienza molte funzioni decisorie è fortissima. Il Consiglio di Stato ha più volte riconosciuto «la piena  ammissibilità degli algoritmi in quanto rispondenti ai canoni di efficienza ed economicità dell’azione amministrativa» (sentenza n. 1206/2021). La giustizia algoritmica c.d. “predittiva” si risolve in una pre-impostazione complessa e articolata, basata su dati statistici in correlazione tra loro, grazie alla quale, date certe premesse, il risultato segue in automatico. Une deduzione, appunto.

Da più parti si sostiene che l’introduzione dei processi algoritmici automatizzati nella decisione dei casi giudiziari e delle problematiche amministrative sortirebbe notevoli effetti positivi in termini di velocizzazione dell’iter e di certezza delle situazioni giuridiche. Soprattutto, si dice, decisioni sorrette da adeguate pre-impostazioni algoritmiche si caratterizzerebbero per imparzialità (la macchina non ha preferenze e non subisce condizionamenti) e razionalità consequenziaria. Può essere vero. Ma, ci ricorda l’Autore, le macchine algoritmiche «decidono con razionalità, non certo con ragionevolezza». E non solo. La macchina algoritmica per definizione segue una logica binaria, alfanumerica e priva di sfumature, laddove il jus, in quanto ars boni et aequi, riconosce e rispetta e regola la peculiarità del singolo essere umano con le sue sfumature e contraddizioni. Se non correttamente impostato, un algoritmo può meccanicamente condurre ad esiti aberranti, discriminatori, assurdi o semplicemente iniqui. Il problema si è già posto più volte, per esempio nello Stato del Wisconsin, dove algoritmi predittivi basati sui precedenti statistici penalizzavano alcune categorie sociali e razziali. Non perché fossero “cattivi” ma per la ferrea e meccanica logica della statistica e delle correlazioni pre-impostate. Le Corti distrettuali del Wisconsin avrebbero dovuto temperare l’algoritmo con l’equità (fattore squisitamente umano) e la peculiarità del caso concreto.

Sussiste il concreto rischio che i processi decisionali automatizzati restino opachi e non verificabili, con un intollerabile annichilimento dei basilari diritti costituzionali dei cittadini. Non a caso la Carta elaborata dalla Commissione europea per l’efficacia della giustizia (CEPEJ) afferma il principio del bilanciamento della statistica preimpostata con la particolarità del caso singolo e ribadisce la necessaria conformità tra l’Intelligenza Artificiale applicata alla giustizia giudiziaria e i diritti fondamentali dei cittadini (non discriminazione; trasparenza; controllabilità). Enunciazioni condivisibili e ovvie, ma che rischiano di restare lettera morta. Infatti la controllabilità del processo decisionale si scontra con la tutela di segreto industriale accordata all’algoritmo. Inoltre per risultare davvero controllabile, il processo decisionale dell’algoritmo dovrebbe diventare noto nella sua propria sequenza di calcolo, oltre che nei criteri e nei rapporti matematici  posti all’origine delle correlazioni dei dati statistici: materia per tecnici informatici altamente qualificati, non certo per giuristi e men che meno per i comuni cittadini. Cosicché non solo la Carta della CEPEJ ma anche le sentenze del Consiglio di Stato 2270/2019  e 7003/2022 secondo cui sussiste il diritto di accesso alla conoscenza dell’algoritmo posto a fondamento della decisione robotizzata, rischiano di rimanere inattuate. Il legislatore ha colto il pericolo di una giustizia predittiva delegata all’algoritmo e nel disegno di legge sulla IA ribadisce il principio della “genesi umana” delle sentenze: a decidere deve restare in ultima istanza il giudice, un essere umano. A fronte della inarrestabilità della rivoluzione digitale anche questo principio rischia però di restare lettera morta.

La rivoluzione digitale ha reso “reale” il mondo “virtuale” del web. Oggi senza accesso a internet e senza una presenza sui social si vive nell’emarginazione; non si possono compiere molte elementari operazioni (si pensi all’obbligo di PagoPa; o alla fatturazione elettronica). Chi, per scelta o altro motivo, non ha accesso a internet possiede ancora tutti i diritti basilari del cittadino? Teoricamente sì, ma non può esercitarli se non con gravi limitazioni. Ma chi, invece, accede alla rete e vive risolutamente sul web perché altamente informatizzato, anch’egli (cioè tutti noi) è ancora un cittadino con pieni diritti? Oppure si sta trasformando in suddito? Torniamo ai grandi players menzionati sopra. Li conosciamo: Facebook/Meta; Apple, Amazon; Google. Questi soggetti privati «hanno accesso a una quantità enorme di dati su comportamenti e abitudini» di miliardi di utenti. Detengono porzioni di ricchezza spaventose e con gli attuali ritmi di crescita dei loro fatturati tra non molto raggiungeranno PIL di Stati come l’Italia o il Canada. Con una simile concentrazione di ricchezze i players si trasformeranno da attori a regolatori di mercato, «dettando le condizioni tecnologiche e giuridiche che presiedono allo svolgimento degli scambi», come scrive lo studioso Giorgio Resta ripreso da Celotto (p. 132).

Cruciali e indispensabili per il vivere sociale e relazionale di miliardi di utenti; oligopolisti con fatturati da PIL. È inevitabile che le grandi piattaforme social guadagnino sempre più rilevanza pubblicistica e svolgano funzioni latu sensu pubbliche. Di più: le piattaforme stanno acquisendo le caratteristiche tipiche degli Stati, con una propria “sovranità” digitale. Possiedono un “territorio” (la piattaforma medesima); un “popolo” (gli utenti, e a miliardi); un “governo” (le guidelines e le norme di self-regulation). Proprio sul tema del “governo” risulta evidentissimo lo scadimento del “popolo” da cittadini costituzionalmente garantiti (almeno nel mondo occidentale) a massa di utenti-sudditi privi di diritti. Chi detta infatti le regole della community ? E chi stabilisce gli “standard” della community che non si possono violare? La piattaforma medesima, la quale inoltre sfugge agevolmente alle giurisdizioni degli Stati perché il suo “territorio” resta virtuale. Emergono tutti i rischi di arbitrarie censure, banner, rimozioni di post e messaggi e quant’altro cui sono esposti i singoli utenti, parecchio sudditi e molto poco cittadini in un mondo virtuale che però condiziona pesantemente il mondo reale. Il caso emblematico dell’ex Presidente Trump, espulso dalle grandi piattaforme per unilaterale decisione delle stesse, è solo la punta dell’iceberg. Chi controlla i controllori e i censori? Sin dove può spingersi la censura (tra l’altro largamente delegata ad algoritmi preimpostati)? Che fine fanno, sulla piattaforma, i diritti costituzionalmente garantiti dei cittadini alla libertà di pensiero, espressione, religione?

Un anelito di ottimismo garantista proviene dalla decisione di Facebook di istituire l’Oversight Board, cioè un organismo indipendente chiamato a pronunciarsi sui reclami degli utenti contro i provvedimenti di censura adottati dalla piattaforma. Con suggestione l’Autore paragona l’Oversight Board alle carte octroyées ottocentesche, concesse dal monarca ai sudditi. Ma dalla sudditanza digitale ci si potrà davvero emancipare solo con una eterodirezione chiara e trasparente delle piattaforme. Una Costituzione digitale, insomma, richiesta e approntata dagli stessi utenti e che sia garante dei diritti fondamentali sul web. Gli utenti sono come tanti piccoli Davide contro i Golia delle piattaforme. Eppure essi, in qualsiasi momento, potrebbero riacquisire il pieno controllo dei dati personali incautamente ceduti, decretando così la rovina delle piattaforme.

Sullo sfondo restano gli Stati tradizionali: come potranno coesistere con i nuovi “Stati” della sovranità digitale? «Dilemma a cui non è facile rispondere» (p. 148) e che nel saggio resta senza risposta.

Loading