Sempre più acceso è il dibattito dell’impatto dell’intelligenza artificiale sulla giustizia, con conseguente ponderazione/bilanciamento del rapporto rischi/costi /benefici.

Certamente prima faci l’impiego dell’intelligenza artificiale, all’interno dei contesti giudiziari, comporta una serie di vantaggi significativi, capaci di apportare notevoli miglioramenti al sistema legale.

Tra questi vantaggi spicca, innanzitutto, la rapida analisi delle prove processuali che consentono una maggiore celerità nelle scelte strategiche connesse ai procedimenti giudiziari, in quanto l’intelligenza artificiale è in grado di esaminare dettagliatamente le prove e i documenti del fascicolo relativo, accelerando notevolmente il processo di valutazione e riducendo per l’effetto i tempi complessivi dell’udienza.

Un ulteriore beneficio cruciale risiede nella capacità dell’intelligenza artificiale di incrociare e analizzare dati provenienti da accertamenti tecnici e tale aspetto risulta particolarmente utile per ottenere una comprensione più approfondita delle prove scientifiche e tecnologiche presentate durante le indagini/processo.

L’intelligenza artificiale può inoltre identificare connessioni, stressare correlazioni e fornire analisi dettagliate che supportano il lavoro degli esperti e degli operatori di giustizia, facilitando così l’adozione delle decisioni (si pensi al reperimento degli incroci di comunicazioni contenute tra persone specifiche in faldoni e faldoni di intercettazioni telefoniche).

Sotto questo profilo l’utilizzo degli strumenti di intelligenza artificiale può essere efficace non solo negli ordinamenti di common law, come quello americano o inglese ad esempio, dove i precedenti giudiziari sono vincolanti per definizione, ma anche negli ordinamenti di civil law, come il nostro, in cui il giudice è libero di interpretare la legge.

Il fatto che nel nostro ordinamento il precedente non sia ancora del tutto vincolante, non inficia il fatto che, avere un sistema che permette una collazione di dati, possa aiutare comunque la ricerca e garantire così un approccio più completo per affrontare qualunque questione giuridica.

A grandi linee e senza pretese di completezza assoluta in questa disamina, si può affermare come la vera particolarità dell’intelligenza artificiale deriva dal fatto che essa opera in un mondo “stabile”, nel senso che l’intelligenza artificiale si fonda sul presupposto che non ci siano incertezze  o variabili fisiche o comportamentali e il mondo risulta “stabile” e non incerto/imprevedibile (ad esempio, nel gioco degli scacchi sussistono determinate regole e determinate probabilità che la macchina può individuare che sono numerosissime, ma che non possono contemplare mosse impreviste come bruciare la torre o sequestrare la regina uscendo dalla scacchiera, quindi sono comunque combinazioni numerabili alla fine).

Per converso l’intelligenza umana invece si fonda sulla capacità di gestire l’incertezza di vita, con l’assenza di dati, anzi l’uomo si è proprio evoluto in questo stato di precarietà predittiva e incertezza (quando nasce un bambino il vocabolo che più spesso questo usa è “perché”).

Le due intelligenze dovrebbero essere utilizzate insieme al meglio, capiamone le differenze rispetto al tema: utilizzo di mega dati e gestione dell’incertezza e relative variabili.

Per fare un esempio in tal senso possiamo affermare come l’incertezza in un processo può essere data dal fatto che un teste può venire a dire non necessariamente quello che ci si aspetta, ma qualcosa di assolutamente imprevedibile che non corrisponde necessariamente al vero o al falso giuridico, ma qualcosa che addirittura è assolutamente incerto o imprevedibile.

La macchina non sarebbe dunque in grado di gestire questo aspetto di incertezza, in quanto essa non può che operare sulla base dei dati che in essa vengono inseriti.

La giustizia non può essere allora ricondotta interamente o riprodotta pari pari solo dall’intelligenza artificiale, ma può trarre dall’intelligenza artificiale tutta una serie di vantaggi tra i quali, ribadendo: analisi delle prove, possibilità di schematizzare accertamenti tecnici (dal dna a impronte digitali per esempio), reperimento della giurisprudenza e altre opportunità le quali devono però essere tutte tradotte in termini giudiziali, ovvero calate nella concretezza dell’incertezza dell’essere e dell’agire umano.

La possibilità in futuro di elaborare tutta una serie di dati, anche se ciò pone dei problemi in termini di privacy (si ricorda il caso del blocco di chatGPT da parte del Garante della privacy), è il futuro perché incrocia la possibilità di sfruttare al massimo tutte quelle che sono le opportunità offerte dalla tecnologia e dalla gestione di mille big data per dare una risposta più completa possibile, ma che difetta della componente empatica, cioè della capacità di ascolto degli interlocutori su un problema con la capacità di mediazione dell’esigenza del problema da parte del cliente con la situazione concreta, piuttosto che quella di capire qual è il ventaglio di strumenti di risoluzione possibili per avere le risposte tangibili e tarate sull’esigenza anche emotiva specifica.

Si può supporre che per l’essere umano, pensare che ci sia un robot che viene governato sulla base delle direttive di chi lo istituisce e che possa sostanzialmente orientare le scelte, sacrificando quella che è la caratteristica tipica della Giustizia umana ovvero l’empatia (parole, gesti ecc.), è un qualcosa che culturalmente e comprensibilmente ci fa porre degli interrogativi e ci spaventa come un romanzo di Asimov (le cui tre leggi significativamente continuano a vivere in materia. Unico caso di legislatore letterario).

Resta il fatto che quantomeno allo stato delle attuali tecnologie (il giudizio va sempre relativizzato quando è scientifico), la macchina non è in grado ancora di sostituire le persone o i giudici nella decisione della controversia.

Ci sono dei valori che l’uomo possiede che non sono quanto meno ancora dotabili alla macchina, come ad esempio il buonsenso (a tacere dell’empatia già detta) o tutte le euristiche collegate.

La macchina potrebbe fornire una conoscenza “oggettivata” e risultare quindi particolarmente utile nella ricerca di precedenti o di altri dati per casi omogenei, dove la componente emotiva è più latente e la valutazione si conforma al mero rispetto o meno oggettivo di una regola.

Questione particolare è quella connessa all’utilizzo in particolare del machine learning, grazie al quale tali macchine sono in grado di dialogare in maniera fluida con il proprio interlocutore, quasi da dare l’impressione di essere in conversazione con un soggetto persona fisica, con l’effetto di garantire inoltre la capacità di accrescimento della qualità delle risposte sulla base delle stesse prime precedenti risposte fornite, oltre che dalla qualità delle domande poste.

Questa peraltro rappresenta anche un handicap a ben vedere rispetto all’obiettivo di vedere diffusa la commerciabilità di una macchina siffatta.

Infatti la trasmigrazione indiretta della propria conoscenza alla macchina, che come una spugna la assorbisse come propria, diventerebbe una sorta di volgarizzazione della conoscenza stessa nella misura in cui diventasse patrimonio diffuso per tutti coloro che l’acquistano.

L’effetto immediato sarebbe che chi si vedesse esposto al rischio di perdere, con la diffusione, l’originalità della propria conoscenza, tanto più a favore dei propri competitors, non sarebbe così incentivato a investire su di una soluzione che, alla lunga, produce un effetto boomerang e lo danneggia facendogli perdere la propria identità culturale.

In ogni caso sui lavori di carattere prettamente esecutivo la macchina può fornire delle prestazioni straordinarie fornendo in tempi molto brevi, su quesiti/esigenze che possiamo definire come standard, un prodotto altamente qualificato.

L’intelligenza artificiale può supportare un fabbisogno di richieste che non coincide con quelle inerenti, ad esempio, al significato della vita o all’ineluttabilità della morte, o su temi in genere esistenziali (concetti che ora/ancora? non appartengono alla coscienza di un robot) ma che può coprire tutta una serie di attività di carattere esecutivo.

Non solo, ma l’intelligenza artificiale può fornire il suo contributo anche in termini organizzativi, ad esempio proprio tramite l’analisi dei cosiddetti big data (come detto: analisi di un certo numero di pagine di un processo, esame di documenti, analisi intercettazioni, ricerca delle fonti) senza dimenticare che in questo caso l’utilizzo della macchina permette di svolgere tale attività in tempi molto più brevi rispetto al caso in cui tali attività venissero affidate alla persona e tutti sappiamo come nel mondo moderno il driver di risparmio del tempo/velocità sia uno dei criteri selettivi delle scelte.

Preso atto allora che il robot non è dotato fisiologicamente di empatia o di altri valori riconosciuti/riconoscibili solo alla persona umana, anche nel “male”, il segreto per il futuro sarà quello di differenziare le risposte umane in termini di creatività, empatia, buonsenso, ecc., e se ciò tanto più avverrà a mezzo o con riferimento a culture diverse da quella specifica, tanto più la macchina non sarà in grado di “emulare o duplicare” l’intelligenza umana.

In conclusione possiamo affermare che, allo stato attuale e sulle aree di mondo “instabile” (caratterizzate quindi da valori intrinsecamente riconoscibili in parte solo dall’uomo) l’intelligenza artificiale viene considerata solo come ausilio per l’uomo, mentre per le aree di mondo “stabile” l’intelligenza artificiale possa anche essere considerata come uno strumento quasi sostitutivo dell’intelligenza umana.

Tuttavia quest’ultima considerazione apre tutta una serie di questioni legate a problemi etici connessi all’acquisizione delle regole e responsabilità proprie nell’utilizzo dell’intelligenza artificiale ovvero dei diritti da lei conosciuti/applicati.

Ci si chiede se le aree di imprevedibilità e incertezza che possono caratterizzare determinate situazioni (per esempio nell’ambito della guida autonoma: l’intelligenza artificiale è in grado di prevedere tutte queste specifiche variabili che sussistono nella circolazione stradale legate all’emotività dell’uomo?) possano essere coperte in ragione delle direttive che siano inizialmente assegnate alla macchina stessa, facendo acquisire alla macchina quelle euristiche che invece fanno parte della gestione dell’incertezza tipica umana nella guida.

Si prova ad analizzare il caso della guida automatizzata comparata a quella guida invece affidata all’uomo per vederne, alla luce dei principi che abbiamo citato, le differenze, i rischi e le opportunità.

E’ indubitabile che un’intelligenza artificiale legata alla conduzione dei mezzi meccanici possa ridurre al minimo dei rischi tipicamente umani collegati all’utilizzo o all’abuso di sostanze alcoliche o stupefacenti devianti la coscienza nella guida piuttosto che a tutte quelle variabili che spesso incidono sulla condotta di guida stessa, quale l’umoralità, le distrazioni per l’utilizzo dei telefonini o per le conversazioni con altre persone o tutto ciò che incide sull’emozionalità della guida rispetto ad una macchina, per sua natura, estranea a tutti questi condizionamenti.

Ciò posto, va anche detto che la previsione di una condotta di guida non dipende esclusivamente dalla depurazione dei pericoli del soggetto agente e di quelli che sono i suoi elementi perturbatori, ma dipende anche dall’agire degli altri soggetti che utilizzano nella stessa misura le strade.

Un soggetto-macchina potrebbe essere perfettamente rispettoso di qualunque regola, ma non può prevedere se e quando l’autista di un camion, che incrocia, non rispetta lui, a sua volta, le regole perché magari poi ci sono delle varianti e variabili indipendenti, il ghiaccio, la neve, la nebbia, il buio, la stanchezza che lo condizionano, a sua volta ancora.

Ritornando all’esempio del mondo stabile, o si rappresenta un mondo dove ci sono soltanto macchine e quindi non c’è la variabile dell’incertezza di chi si trova davanti (che ti espone al rischio che la macchina condotta dall’intelligenza artificiale non “dipende” solo da una deviazione dell’utilizzo corretto dell’intelligenza artificiale stessa, ma dalle variabili degli altri utenti), oppure evidentemente questo rischio, in difetto di una totalizzazione della circolazione stradale da parte dell’intelligenza artificiale, non sarebbe mai eliminabile del tutto.

Il discorso si fa anche più complesso nella misura in cui si adottasse l’intelligenza artificiale pari pari appunto alla circolazione stradale, perché si dovrebbe sacrificare anche delle euristiche che nella condotta di guida umana sono tipiche nella previsione appunto dell’incertezza delle situazioni.

Si prova a fare un esempio: se si conduce un’autovettura in una località turistica estiva e per esempio si vede dei bambini sul lungomare, vi è un’euristica, del tutto estranea alla condotta di guida, che fa supporre che questi possano essere un rischio autonomo. Anche se estranei in sé alla circolazione stradale.

Questa percezione del rischio nell’incertezza della situazione può essere condizionata e approfondita sempre dall’esperienza, di tutto ciò che accade continuando nell’esempio: se si vede il bambino a bordo strada che guarda il pallone che nel frattempo ha perso che è dall’altra parte della strada, si può supporre che quel bambino abbia la tentazione di attraversare la strada che si sta percorrendo e possa diventare quindi per lui un pericolo la condotta di guida rispetto a questo attraversamento improvviso.

Se invece quello stesso bambino, nella stessa situazione, con lo stesso pallone, non guarda il pallone ma guarda la mamma che lo sta rimbrottando per il pallone calciato lontano, si può supporre, applicando le stesse accelerazioni di conoscenza che abbiamo detto legate all’esperienza, che quel bambino non attraverserà la strada avendo la sua concentrazione verso la madre.

Questo tema del valore esperienziale umano legato a dei fattori del tutto esogeni rispetto alla condotta di guida, è un qualcosa che non è facile pensare che l’intelligenza artificiale lo possa raggiungere almeno allo stato delle attuali conoscenze, perché si tratta di duplicare non soltanto reti neurali proprie del cervello, ma immagazzinare e tradurre in conseguenze, comportamenti o elementi che invece fanno parte totalmente delle esperienze individuali quasi inconsapevoli.

C’è poi un altro particolare che pare importante osservare.

Nella previsione di una condotta di guida resa omogenea sul territorio mondiale e quindi su tutte le circolazioni, al di là delle differenziazioni normative di regole di guida, ci possono essere anche delle ulteriori complicazioni legate non soltanto a delle varianti prevedibili (un’intelligenza artificiale si dovrebbe adeguare diversamente a seconda che ci fosse una guida a destra o a sinistra), ma anche a delle differenze antropologiche.

Si pensa al c.d. “dilemma del carrello”, come si usa dire, cioè al caso in cui l’intelligenza artificiale dovesse o fosse programmata nel caso di un evento imprevedibile, a dover scegliere autonomamente quale risultato privilegiare rispetto all’impossibilità di evitare comunque un evento e pertanto, rispetto all’ipotesi che debba necessariamente investire qualcuno, chi sceglierebbe?

Probabilmente questa scelta ha delle “componenti di condizionamento” giuste le direttive iniziali che fossero fornite alla intelligenza stessa, anche di natura “antropologica”, che derivano come dire dalle culture di base degli autori delle direttive stesse.

Un’intelligenza artificiale applicata alla guida di “formazione” giapponese privilegerebbe il rispetto di colui che ha osservato a sua volta le sue regole o dell’anziano, mentre invece un’intelligenza artificiale che fosse programmata da una direttiva di cultura araba, magari privilegerebbe la salvaguardia dell’uomo rispetto alla donna o nella cultura orientale l’anziano rispetto al bambino, o nella cultura sudamericana l’uomo con uno stato sociale più elevato rispetto a quello meno, insomma ci sarebbero delle componenti culturali che si potrebbero tradurre nelle direttive e negli orientamenti dell’intelligenza artificiale applicata alla guida che potrebbero avere alla fine un loro impatto e che renderebbero difficile una diffusione del mezzo senza considerare il contesto spaziale dove questa intelligenza stessa è stata creata.

La strada è lunga, certamente l’intelligenza artificiale non sarà solo un ausilio, ma progressivamente acquisterà sempre più spazio a livello giudiziale.

Non sappiamo ancora dove ci porteranno queste strade nel futuro, certamente non possiamo escludere allo stato ancora nulla perché la scienza ci ha sempre riservato delle sorprese sul raggiungimento degli orizzonti, magari in precedenza esclusi o ritenuti lontani dall’essere raggiungibili.

 

Luca Ponti