Processo Penale e GiustiziaISSN 2039-4527
G. Giappichelli Editore

indietro

stampa articolo indice fascicolo leggi articolo leggi fascicolo


Intelligenza artificiale tra quantistica matematica e razionalismo critico: la necessaria tutela di approdi euristici (di Filippo Raffaele Dinacci, Professore ordinario di Diritto processuale penale – Università di Roma “Luiss Guido Carli”)


>

Non bisogna incorrere nell’errore di considerare i meccanismi predittivi dell’intelligenza artificiale quali espressione di una scienza certa. Al contrario gli stessi costituiscono il frutto di un calcolo statistico-probabilistico che porta con sé l’incertezza dell’indizio. Tale consapevolezza, unita alla difficoltà di verificare i modi di formazione dell’algoritmo predittivo, impone un controllo umano affidato a quel razionalismo critico che ispira la funzione cognitiva del processo.

Parole chiave: intelligenza artificiale – meccanismi predittivi – tutela dei diritti fondamentali.

<
Artificial intelligence between mathematical quantum and critical rationalism: the necessary protection of heuristic approaches

One should not make the mistake of considering the predictive mechanisms of artificial intelligence as the expression of a certain science. On the contrary, they are the result of a statistical-probabilistic calculation that carries with it the uncertainty of the clue. This awareness, combined with the difficulty of verifying the modes of formation of the predictive algorithm, imposes a human control entrusted to that critical rationalism that inspires the cognitive function of the trial.

SOMMARIO:

1. L’autonomia del giudicare quale tutela dei diritti fondamentali della Costituzione - 2. Le indicazioni normative ed operative sulla necessità di un giudizio “umano” - 3. Il soggettivismo dell’intelligenza artificiale: il problema della verificabilità del percorso e la confutabilità del risultato - 4. L’equivocità della prova innominata e l’esigenza che il giudizio si formi sul “contesto” probatorio - 5. Dalla presunzione di non colpevolezza alla presunzione di pericolosità - 6. L’intelligenza artificiale quale erogatrice di meri indizi - 7. Conclusioni: non fruibilità di forme conoscitive opache e non verificabili - NOTE


1. L’autonomia del giudicare quale tutela dei diritti fondamentali della Costituzione

La vorticosa espansione del sapere scientifico e la comparsa di forme tecnologiche in grado di elaborare verdetti predittivi costituiscono fattori che “tentano” l’operatore del diritto ad affidarsi a quella che appare una scienza capace di fornire soluzioni “certe”. Si paventa così il rischio di adagiarsi su produzioni scientifiche di verità con conseguente marginalizzazione delle tradizionali regole epistemiche del processo. In sostanza, è umana la seduzione che suscitano criteri decisori che, nella misura in cui sono basati su una pretesa robustezza scientifica, conducono ad un giudizio senza decisione [1]. Si potrebbe riscoprire quella “comodità del giudicare” [2] capace di schermare anche da polemiche e critiche in ordine al decisum; e ciò tanto più in un momento storico in cui l’operato della magistratura (a volte a ragione, a volte meno) è oggetto di attacchi di “piazza” per i motivi più disparati. Ma quel che preoccupa è quando la critica del “sociale” si incentra sul contenuto di una pronuncia; ormai si assiste a forme di virulenza le quali, ancorché in alcuni casi comprensibili, non appaiono giustificabili e rischiano di ledere, anche in ragione dell’amplificazione mediatica delle prese di posizione, l’autonomia dei giudizi. In tale contesto socio-culturale l’affidarsi ad un giudizio artificiale di natura predittiva potrebbe rappresentare un, sia pure inconsapevole, commodus discessus. Rilievo questo che evidenzia come l’approccio fideistico a strumenti di intelligenza artificiale si risolva in una agevole abdicazione alle funzioni del decidere. In tal modo lo strumento processuale abbandona la funzione cognitiva ed aletica per traghettarsi verso una funzione matematica attraverso cui si genera un logaritmo pretesamente in grado di gestire una formula per la giustizia. Sia ben chiaro, il discorso non è pregiudizialmente antiscientifico bensì diretto a verificare quanto di quella scienza, o presunta tale, può essere recepita, e a quali condizioni, nell’ordinamento. Questo, è noto, non si evolve con i tempi di scienza e tecnologia ed è pertanto ovvio che l’interprete e l’operatore del diritto si trovino ad agire quando il problema è già sorto [3]. Ne deriva un diverso atteggiarsi. Il metodo da seguire [continua ..]


2. Le indicazioni normative ed operative sulla necessità di un giudizio “umano”

Occorre subito dire che l’ipotesi di una sostituzione della macchina al giudice nella funzione di giudizio non è consentita da fonti sovraordinate. Basti pensare all’art. 101, comma 2, Cost. laddove dispone che “i giudici sono soggetti soltanto alla legge”. Il comando costituzionale, in realtà, sembra precludere non solo la sostituzione della macchina al giudice ma anche forme vincolanti di automatismo valutativo non rinvenibili nella produzione normativa [5]. Nella medesima direzione si pone anche la Convenzione edu. In quella sede, all’art. 6 par. 1 si prevede il diritto ad essere giudicato “da parte di un tribunale indipendente”. E, anche laddove si voglia equivocare sulla “neutralità” del richiamo ad un tribunale che potrebbe evocare una composizione indistinta, soccorre a conferma l’art. 5 par. 3 della medesima Convenzione che, nel disciplinare il diritto di accesso alla giurisdizione, personalizza quest’ultima mediante l’espresso riferimento al “giudice o ad un altro magistrato” [6]. Si profila, così, una visione antropocentrica che si collega alla consapevolezza che la “dignità della persona implica sempre, in sede giurisdizionale, il diritto ad essere giudicato da un essere umano” [7]. Presa di posizione, questa, correlabile a quel­l’habeas corpus su cui è fondato il moderno costituzionalismo dei valori [8]. Tale impostazione ha trovato condivisione a livello eurounitario dove il 3 dicembre 2018 la Commissione europea per l’efficienza dei sistemi di giustizia (CEPEJ) ha approvato la “Carta etica sull’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro ambiente”. Il provvedimento esprime una linea di indirizzo diretta ad assicurare che l’arricchimento scientifico delle fonti informative del giudice e le predizioni del modello che genera l’algoritmo si debbano coniugare con il nucleo epistemologico del giusto processo sulla base di criteri di espressa responsabilità dell’uomo. In altre parole, “la coerenza logica del calcolo algoritmico va verificata in un processo d’integrazione fra le misure quantitative, ricche e imponenti, da esso offerte con il percorso cognitivo e decisorio del giudice, nel rispetto dei metavalori dell’ordinamento” [9]. Solo in tal modo, infatti, si concretizza [continua ..]


3. Il soggettivismo dell’intelligenza artificiale: il problema della verificabilità del percorso e la confutabilità del risultato

Tuttavia, quest’ultima è comunque verificabile secondo gli ordinari criteri di scientificità e di logica razionale, mentre il controllo dei programmi di intelligenza artificiale pone qualche problema in più. Ed infatti, secondo la definizione della “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi”, l’intelligenza artificiale è “l’insieme di metodi scientifici, teorie e tecniche formalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani. Gli attuali sviluppi mirano a far svolgere alle macchine compiti complessi precedentemente assolti da esseri umani” [15]. Nel medesimo testo si opera una distinzione tra “intelligenze artificiali forti” (e cioè capaci di contestualizzare problemi specializzati di varia natura in maniera completamente autonoma) e “intelligenze artificiali deboli” (idonee ad altre prestazioni nel loro ambito di addestramento), precisandosi che nel presente documento gli “strumenti menzionati sono sviluppati utilizzando metodi di apprendimento automatico, ovvero intelligenze artificiali deboli” [16]. Come tutte le classificazioni, quella appena riportata si presta ad equivocità e, sul punto, basti considerare che la Carta etica europea analizza anche il tema della giustizia predittiva, che parrebbe collocabile nell’ambito dell’intelligenza artificiale forte [17]. Ad ogni modo, a prescindere da ciò, la volontà che sembra emergere indiscutibilmente è che i frutti della intelligenza artificiale saranno fruibili in sede penale solo se posti quali elemento di supporto alla decisione. Ma anche qui occorre intendersi. L’attuale ordinamento processuale non ha basi “onnivore” e cioè il contributo conoscitivo, così come l’attività valutativa, può rendere giustizia solo se essa è realizzata in presenza di certi presupposti ed a certe condizioni. Inoltre, l’attività di giudizio ed i dati conoscitivi su cui la medesima si fonda devono essere verificabili. Al riguardo è necessario fare i conti con quel limite scientifico secondo cui non è “possibile definire un algoritmo [generale] di controllo dei programmi” [18]. Come se non bastasse, non si può ignorare “la [continua ..]


4. L’equivocità della prova innominata e l’esigenza che il giudizio si formi sul “contesto” probatorio

Questa, del resto, non può esplicarsi in un’attività a forma libera, ma solo con modalità regolamentate. E qui occorre dissipare un primo equivoco. Le realtà storiche derivanti o ricavabili dalle macchine dell’intelligenza artificiale non possono essere introdotte nel processo attraverso lo schema dell’art. 189 c.p.p. Se è vero che tale disposizione costituisce una sorta di “adattatore automatico” [24] preposto a gestire quelle situazioni probatorie derivanti da forme di conoscenza allora non possedute, è anche vero che il tema va affrontato con cautela e, comunque, non sempre soccorre nel “trattamento” del rapporto tra processo e scienza. Basti pensare che la nuova scienza trova uno strumento di introduzione nel processo attraverso il veicolo della prova tecnica; i dati conoscitivi da essa derivanti necessariamente risultano recuperabili nei contenitori normativi della perizia, della consulenza tecnica di parte e, infine, degli accertamenti tecnici irripetibili. Ed è con riferimento alla disciplina per essi dettata che va individuata la procedura da seguire per una legittima conoscenza del giudice. Ma, seppure così non fosse, e cioè se i contenitori tipici del mezzo probatorio non si prestassero a regolare processualmente i risultati del nuovo sapere scientifico, occorrerebbe comunque applicare la disciplina normativa di quel mezzo di prova o di ricerca della prova che si pone, rispetto al caso concreto, in rapporto di similia ad similibus, ricorrendo in tal modo a quello strumento di auto-integrazione dell’ordinamento giuridico costituito dall’analogia [25]. Solo a fronte dell’impossibilità di una tale operazione può ricorrersi alle regole di cui all’art. 189 c.p.p. [26]. Nel caso di specie non pare possa in alcun modo invocarsi lo “schema” libero delle prove atipiche in quanto non sembra controvertibile che la “conoscenza” derivante dalla intelligenza artificiale risulti perfettamente inquadrabile nell’atto peritale o, comunque, nella prova tecnica. In tal caso, tuttavia, come si è visto, il problema è rendere accessibile al giudice il sapere altamente specialistico [27]. Si dovrebbe essere posti nella condizione di poter effettuare un’opera di decodifica che consenta una consapevole funzione di giudizio, che non può tradursi nella [continua ..]


5. Dalla presunzione di non colpevolezza alla presunzione di pericolosità

Ma, a prescindere da tali percorsi che invocano la necessaria previsione di controlli confutativi epistemici, evidenzia segnalare ulteriori perplessità dell’agire dell’intelligenza artificiale. Essa si caratterizza per una presunta capacità predittiva in grado di fornire una risposta probabilistica sulla verificazione, o meglio verificabilità, di un evento futuro ovvero, perché no, nell’essersi verificato nel passato un evento non conosciuto. In ambedue i casi la capacità predittiva incide nella sua valenza statistico-probabilistica su un fatto incerto in quanto ignoto o in quanto futuro. Calando tale realtà nel processo penale vengono in rilievo tutti quei campi applicativi dove la regola giuridica è connotata da ampia discrezionalità (recte, facoltatività) [34] e si parametra su una commistione tra valutazione della personalità e della responsabilità. Vengono in rilievo le disposizioni relative alla dosimetria della pena, alle attenuanti generiche e, in ultimo ma non da ultimo, alle esigenze cautelari di cui all’art. 274 c.p.p. con particolare riferimento al pericolo di recidiva ex lett. c) della medesima previsione normativa. E qui la situazione si complica in quanto viene in evidenza la regola di trattamento di cui all’art. 27, comma 2, Cost. [35]. Si approccia, in altri termini, “la dimensione special-preventiva: c’è una prognosi di rischio percentuale in termini di futura e probabile (reiterata) responsabilità penale” [36]. In tali evenienze, la predizione del periculum cautelare implica un giudizio di pericolosità dell’imputato, il che pare contraddire la presunzione di non colpevolezza che dovrebbe sottendere anche la presunzione di non pericolosità [37]. Del resto, l’accoglimento di una funzione cognitiva del processo risulta inconciliabile con l’idea di una pericolosità presunta dell’imputato [38]. L’argomento è particolarmente complesso e mostra pericoli in agguato. Basti considerare che l’omo­geneizzazione delle informazioni inserite nella macchina diretta a produrre “intelligenza”, imprimendo alle stesse una specifica “direzionalità”, rischia di provocare derive verso un diritto penale d’autore [39]. Del resto l’algoritmo è “per sua natura [continua ..]


6. L’intelligenza artificiale quale erogatrice di meri indizi

Ad ogni modo, quando un giudizio sulla pericolosità si converte in dato probatorio quel che si inquina è la legalità dell’accertamento che impone materiale purificato dal corretto criterio conoscitivo. Ma, al di là dell’esigenza di un adeguato metodo probatorio, occorre rimarcare come il prodotto conoscitivo promanante dall’intelligenza artificiale, costituendo la risultante di un calcolo probabilistico-statistico, assuma la valenza di mero indizio; quindi, si assoggetta alla regola di cui all’art. 192, comma 2, c.p.p. [44]. Tuttavia, sul punto, la pratica operativa dovrà confrontarsi con inconsce “predilezioni” di quanto affermato dalla macchina produttrice di intelligenza sulla base di una non dimostrata forza dimostrativa dell’algoritmo [45]. Qui si può cadere in “miraggi decisionali” fondati sul falso mito della scientificità della prova. E, quel che più conta, è che in tal modo si paventa il pericolo di generare, in sede di accertamento, prove a resistenza privilegiata. Una sorta di prova legale di fatto quale frutto della trappola valutativa in cui si incorre quando si abbandonano schemi di razionalismo critico e si approda a chimiche decisorie di natura matematica. Del resto non deve sfuggire come l’algoritmo intelligente, essendo privato di quel rapporto diretto tra il giudice e la prova, non possa tenere conto del valore che veicola il dato, nel senso che impone al soggetto decidente il giudizio sulla base della rilevazione delle proprie strutture di valore. Senza considerare che l’attività di giudizio attinge tanto la sfera conoscitiva quanto quella emozionale [46]. Ne deriva che “l’inferenza in misura maggiore a volte del momento conoscitivo a volte di quello emozionale, senza che nessuno dei due possa mai venire isolato dall’altro in un’operazione densa di rapporti scambievoli il cui rispettivo peso dà l’impressione di potere essere colto soltanto rispetto a quei casi in cui l’usualità ricorrente dell’atteggiarsi in un senso determinato della coscienza emozionale della percezione del dato, sembra annullare il momento valutativo e lasciare in rilievo quello meramente conoscitivo” [47]; di qui l’impossibilità di distinguere i giudizi di fatto da quelli di valore. Da tutto ciò emerge come il giudizio fondato [continua ..]


7. Conclusioni: non fruibilità di forme conoscitive opache e non verificabili

La materia è pericolosa e va trattata con cura. Non è pensabile affidare la decisione giudiziaria ad algoritmi predittivi. Gli stessi infatti, anche a voler prescindere dalla loro affidabilità, paventano solo una probabilità; e tale giudizio probabilistico è deprivato di quel fattore fondamentale per l’analisi della prova costituito dalla necessità che la stessa sia percepita da chi la deve giudicare. Tale situazione, peraltro, evidenzia l’ulteriore deficit valutativo che caratterizza la prova per algoritmo: e cioè l’incapacità di poter cogliere il “contesto” probatorio che si sviluppa nel processo. Ne deriva che il singolo risultato di prova potrà essere giudicato differentemente anche in ragione delle interferenze con altri dati conoscitivi che impongono diverse massime di esperienza proprio in ragione della valutazione complessiva del quadro probatorio. In altre parole, l’intelligenza artificiale sarebbe in grado di fornire, tutt’al più, risposte sul singolo esperimento conoscitivo ma non risulterebbe idonea ad essere esportata nel momento di valutazione complessiva di tutti gli elementi probatori. Momento, questo, come noto, in cui il principio del libero convincimento cede il passo alle regole di giudizio [53]. A ciò si aggiungano tutte le segnalate problematiche relative alla “controllabilità” del percorso che produce la “verità algoritmica”. Non controllabilità significa non confutabilità, con pericolose aperture verso concezioni di un risultato probatorio più affidabile degli altri. La tematica assume ulteriore cogenza anche in considerazione del fatto che l’inserimento dei dati nella “macchina intelligente” non è privo di componenti di valore soggettivo; in altre parole, a seconda di quale informazione viene fornita alla macchina, di come tale informazione viene fornita e di come la macchina la riorganizza nella sua programmazione può cambiare il risultato che, lo si ribadisce, ha una mera natura probabilistica a base statistica. Emerge quindi come il responso dell’intelligenza artificiale offra un incerto fondamento euristico [54]. Tale consapevolezza deve condurre a rifiutare falsi miti di “infallibilità” scientifica. Anzi, il prodotto conoscitivo è equivoco e, non risultando in grado di [continua ..]


NOTE
Fascicolo 6 - 2022