ChatGPT e decisione giudiziale: per un primo commento alla recente sentenza del Juzgado Primero Laboral di Cartagena de Indias (Colombia)
1. Una recentissima decisione del Juzgado Primero Laboral (Primo Tribunale del Lavoro, sent. n. 032 del 30 gennaio 2023, pubblicata il giorno successivo) di Cartagena de Indias, in Colombia, sta passando rapidamente agli onori delle cronache, locali e non solo, per aver avallato in modo esplicito l’utilizzo dell’intelligenza artificiale nel processo decisionale del giudice (la sentenza integrale è consultabile a questo link).
2. Il caso riguarda un’azione di tutela (meccanismo giudiziale di protezione immediata dei diritti fondamentali previsto dall’art. 86 della Costituzione e analogo in certa misura all’amparo) presentata dalla madre di un minore con diagnosi di disturbo da spettro autistico. La ricorrente aveva richiesto di condannare la relativa EPS (entità analoga ad un’assicurazione sanitaria) ad assumere le spese delle quote moderatrici (equivalente del ticket sanitario) nonché del trasporto del minore dalla residenza al luogo della terapia prescritta. Il caso veniva deciso in primo grado il 7 dicembre 2022 da altro giudice (nel sistema colombiano, qualunque giudice del luogo può conoscere dell’azione di tutela) con sentenza favorevole alla ricorrente. La pronuncia che ora si commenta ha deciso invece sull’impugnazione presentata dalla EPS nei confronti della prima sentenza.
3. Il giudice conferma la decisione di primo grado.
Nel merito, viene citato in particolare un precedente della Corte costituzionale (sentenza T-674-2016), che in un caso analogo (peraltro, relativo alla medesima EPS) aveva concesso la protezione sulla base di argomenti riconducibili al principio di eguaglianza sostanziale.
Interessante anche, dal punto di vista processuale, l’argomento – reiterato più volte nel testo della pronuncia – per cui la EPS non ha saputo smentire l’affermazione di insufficiente disponibilità economica da parte della ricorrente: il testo della sentenza non consente di intendere appieno se si tratti di assunzione quale fatto pacifico di circostanza non contestata o di una vera e propria inversione dell’onere della prova (che, a certe condizioni, risulterebbe comunque legittimata nell’ordinamento colombiano sulla base dell’art. 167 del codice generale del processo, “secondo le particolarità del caso“).
4. Il profilo di maggior interesse riguarda però il paragrafo 11 della decisione, nel quale il giudice ritiene opportuno considerare le risposte offerte da un sistema di intelligenza artificiale ai quesiti giuridici fondamentali ai fini della decisione del caso.
Al riguardo, il giudicante sceglie il sistema ad accesso gratuito ChatGPT (una chatbot di OpenAI operativa da novembre 2022) e riporta in sentenza le risposte – in tutti i casi favorevoli alla parte ricorrente – restituite dallo stesso alle seguenti domande (la traduzione è mia):
- “Il minore autistico è esonerato dal pagamento delle quote moderatrici richieste per le proprie terapie?”, da cui la risposta del sistema: “Sì, è corretto. Sulla base della normativa colombiana, i minori con diagnosi di autismo sono esonerati dal pagare le quote moderatrici nelle proprie terapie. Tale beneficio è regolato dalla legge 1753 del 2015 e si applica a tutti gli enti erogatori di servizi di salute pubblica che ricevano risorse dal sistema generale di previdenza sanitaria”;
- “Le azioni di tutela in questi casi vanno concesse?”, da cui la risposta del sistema: “Nel caso in cui un ente erogatore di servizi sanitari non rispetti l’esonero dalle quote moderatrici per un minore con diagnosi di autismo, la persona o i suoi rappresentanti legali possono presentare un’azione di tutela per proteggere i relativi diritti. La tutela è un meccanismo giudiziario rapido ed efficace per proteggere i diritti fondamentali che risultino violati. Se si dimostra che il diritto alla salute del minore autistico risulta pregiudicato dall’esigenza di pagare le quote moderatrici, è probabile che l’azione di tutela sia concessa e si ordini all’ente prestatore di servizi sanitari di adempiere all’esonero. Tuttavia, ciascun caso è unico e la decisione finale dipende dai fatti e dalle circostanze specifiche del caso”;
- “Esigere in questi casi il pagamento delle quote moderatrici costituisce un ostacolo d’accesso al servizio sanitario”, da cui la risposta del sistema: “Sì, in alcuni casi l’obbligo di pagare le quote moderatrici può costituire un ostacolo d’accesso ai servizi sanitari per le persone con diagnosi di autismo, soprattutto se hanno difficoltà a percepire un reddito o se la loro situazione economica è precaria. L’obbligo di pagare le quote moderatrici può impedire o ostacolare l’accesso alle cure e alle terapie essenziali per il benessere e lo sviluppo dei bambini con autismo. Per questo la normativa colombiana esime i minori con diagnosi di autismo dal pagare le quote moderatrici nelle proprie terapie, al fine di garantire l’accesso a tali servizi sanitari essenziali senza ostacoli di carattere economico”;
- “La giurisprudenza costituzionale ha assunto decisioni favorevoli in casi simili?”, da cui la risposta del sistema: “Sì, è corretto. La Corte costituzionale colombiana ha assunto decisioni favorevoli in casi simili, relativi all’esonero delle quote moderatrici per le persone con diagnosi di autismo. La giurisprudenza ha riconosciuto l’importanza di garantire l’accesso ai servizi sanitari essenziali per le persone con autismo e ha sostenuto che l’obbligo di pagare le quote moderatrici può essere un ostacolo per l’accesso a questi servizi. La giurisprudenza della Corte costituzionale è una fonte importante per interpretare e applicare la Costituzione e le leggi in Colombia e le sue decisioni sono vincolanti per tutte le autorità ed entità pubbliche del Paese. Pertanto, decisioni favorevoli in casi simili possono essere utili come precedente per altri casi in cui si controverta sull’obbligo di pagare le quote moderatrici per le persone con diagnosi di autismo”.
5. Un ricorso tanto esplicito al sistema di intelligenza artificiale non avviene senza una giustificazione normativa da parte del giudice, che afferma, al riguardo, di “dare applicazione alla legge 2213 del 2022, che ha per oggetto l’incorporazione delle tecnologie dell’informazione nei processi”.
Il testo normativo richiamato, tuttavia, è stato promulgato in Colombia al fine di rendere definitive le disposizioni transitorie adottate durante la pandemia in materia, precisamente, di utilizzo delle tecnologie dell’informazione nella trattazione dei processi: si tratta, in altri termini, di una legge relativa a quello che in Italia è il “processo telematico”. Per contro, la legge in esame non menziona in alcun punto l’utilizzo dell’intelligenza artificiale ai fini dello sviluppo della motivazione e dell’assunzione della decisione del giudice (anzi, la locuzione “intelligenza artificiale” non compare in alcun punto del testo legislativo).
Il giudice ha quindi optato per un’interpretazione particolarmente ampia della normativa, operando quella che potrebbe definirsi un’applicazione analogica della ratio ispiratrice della legge (schematicamente: la norma regola l’uso della tecnologia nei processi, quindi intende favorire tale utilizzo, quindi va agevolato l’impiego di sistemi informatici anche con una portata diversa da quella regolata nella legge).
6. Una volta menzionate le risposte offerte dal sistema ChatGPT ai quesiti giuridici sopra richiamati, il giudice si premura di offrire alcune precisazioni.
In particolare, chiarisce che l’utilizzo dell’intelligenza artificiale è volto ad “aggiungere” argomenti a quelli già sviluppati ed avviene “a titolo di iniziativa” al fine di agevolare la “celerità” delle decisioni di tutela. In questo senso, si specifica che il proposito “non è in alcun modo quello di sostituire la decisione del giudice”, ma solo quello di “ottimizzare i tempi” necessari alla redazione delle sentenze, “previa verifica delle informazioni offerte” dal sistema di intelligenza artificiale.
Si tratta, all’evidenza, dei rilievi meritevoli di maggiore attenzione – e di futuri approfondimenti – all’interno della pronuncia, la quale presenta peraltro una struttura che sembra rispecchiare l’impostazione dichiarata dal giudice (le risposte del sistema, invero, sono riportate alla fine della motivazione, a riprova e conferma dell’iter argomentativo sviluppato in precedenza).
7. Com’era ipotizzabile, le reazioni non si sono fatte attendere, e appare quasi scontato che i primi commenti a una sentenza relativa all’impiego di sistemi informatici e di intelligenza artificiale siano stati ospitati dallo spazio digitale e dai social.
Al di là dell’eco che la decisione ha avuto e sta avendo su quotidiani, blog e siti di informazione, in una prospettiva più specificamente giuridica è stato molto letto il thread su Twitter di Juan David Gutiérrez Rodríguez, associato dell’Università del Rosario di Bogotà, il quale si è detto “preoccupato” per la decisione, ritenendo che ChatGPT abbia la tendenza a restituire risultati “incorretti, imprecisi e falsi” e affermando, inoltre, che il giudice pare aver in certa misura modificato le risposte del sistema poi riportate in sentenza. Interessante mi sembra anche il post su LinkedIn di María Lorena Flórez Rojas, dell’Università di Groningen, la quale conclude comunque la propria analisi mettendo in guardia dai rischi di eccessiva fiducia nei sistemi di intelligenza artificiale.
8. C’è poi senz’altro da credere che analisi più approfondite e di taglio scientifico saranno presto rese disponibili, anche tenendo conto dell’ampio dibattito aperto da decenni sui temi delle implicazioni giuridiche dell’uso dell’intelligenza artificiale e segnatamente, per quanto qui rileva, sull’uso dell’intelligenza artificiale nella decisione giudiziale.
Obbligato, al riguardo, il rinvio al testo di riferimento sul tema (Ashley, 2017) e agli studi che sono stati effettuati soprattutto negli Stati Uniti, dove l’utilizzo già ampio delle tecnologie in questione nei processi è stata oggetto di critica per i problemi che si pongono in termini di trasparenza e imparzialità (celebre il caso del sistema COMPAS: sul punto e per un quadro generale delle problematiche della materia, cfr. il recente contributo di Greenstein, 2022).
Certo è che pronunce come quella in esame rendono vieppiù evidenti le lacune normative esistenti sul punto. Meritorie ma incomplete, quindi, le iniziative fin qui assunte a livello normativo, para-normativo e di indirizzo, fra cui merita particolare menzione la proposta, in ambito UE, di un approccio europeo all’intelligenza artificiale, nonché – e forse ancor più – la Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari del 2018, strumento di soft law adottato nell’ambito del Consiglio d’Europa, cui ha fatto seguito un piano d’azione sulla digitalizzazione per una giustizia migliore per il periodo 2022-2025.
I cinque principi fondamentali individuati dalla Carta etica (rispetto dei diritti fondamentali, non discriminazione, qualità e sicurezza dei sistemi utilizzati, trasparenza, controllo umano dell’utente) offrono all’evidenza spunti di grande rilievo per il commento di sentenze come quella qui presentata e rendono ancor più manifesta l’esigenza odierna di garantire – oltre naturalmente alla preparazione giuridica – una formazione informatica basilare di giudicanti, avvocati e operatori del diritto in genere.