DeepSeek 3: la sfida cinese a Chat GPT. Implicazioni e scenari per l’UE nel 2025

1. Il 2024 è stato un anno cruciale per la consacrazione dell’Intelligenza artificiale (IA) come motore di cambiamento globale. A livello geopolitico, il panorama mondiale ha registrato risposte diverse da parte dei principali attori internazionali, riflettendo visioni contrastanti sull’adozione e la regolamentazione delle nuove tecnologie. Mentre la Russia ha mantenuto una posizione marginale, concentrata su questioni interne e sul conflitto in Ucraina, Stati Uniti, Cina e Unione Europea hanno adottato strategie diverse, dettate dalle loro priorità economiche, politiche e sociali.
Da un lato, la Cina e gli Stati Uniti hanno puntato sull’innovazione pratica e sulla competitività, evidenziando approcci orientati al rafforzamento di un vero e proprio “nazionalismo tecnologico” basato sull’espansione commerciale e sulla limitazione dei prodotti altrui. Un esempio recente di questo lo si può intravedere nella diatriba tra governo statunitense e Tik Tok, la quale ancora è lontana da trovare una risoluzione conclusiva e che sicuramente rappresenterà un nuovo terreno di scontro in questa nuova “corsa allo spazio” digitale.
Dall’altro, l’Unione Europea ha scelto di posizionarsi come leader normativo, lavorando per armonizzare la regolamentazione dell’IA e proteggere i diritti fondamentali dei suoi cittadini, in linea con i principi fondativi dell’Unione.
Tra i protagonisti della rivoluzione digitale, un ruolo di primo piano è stato assunto da Chat GPT, il noto  modello di intelligenza artificiale sviluppato da OpenAI. Dopo significativi aggiornamenti nel 2024, Chat GPT ha consolidato la sua posizione di leadership nel panorama dell’IA generativa. Nato dalla collaborazione tra Sam Altman ed Elon Musk, il progetto ha attirato l’attenzione mondiale grazie alla sua capacità di adattarsi alle esigenze degli utenti e alla velocità con cui ha superato i suoi concorrenti. La Silicon Valley si è confermata  epicentro dell’innovazione, con altre Big Tech – tra cui Apple e Google – impegnate nello sviluppo di propri modelli, come Apple Intelligence e Google Gemini. Questi progetti, seppur ambiziosi, devono ancora affermarsi come alternative competitive rispetto alla soluzione di OpenAI.
La Cina, invece, si è trovata nel breve termine a inseguire il comparto imprenditoriale statunitense, non riuscendo a rispondere prontamente con propri modelli di Intelligenza artificiale. Questo stato di cose ha rappresentato nell’immediato un forte danno nei confronti del Paese del Dragone, complici anche le limitazioni imposte da OpenAI nei confronti degli accessi ai propri servizi da parte degli utenti cinesi.
Tuttavia, nel corso dell’anno appena concluso il governo di Pechino ha risposto ai dubbi dell’opinione pubblica, cercando di infondere fiducia, in quanto, secondo fonti interne, il divario sarebbe stato colmato in breve termine (anche grazie ad enormi risorse immesse dallo Stato per l’innovazione nel settore). È così che in poco tempo sono iniziati a proliferare nuovi sistemi di IA, predisposti principalmente dai colossi Alibaba e Tencent, ognuno con le sue funzioni e caratteristiche. Ad ogni buon conto, a tenere banco nel dibattito odierno è la diffusione di DeepSeek 3, ossia quella che dovrebbe rappresentare la risposta diretta cinese a Chat GPT.

2. Con l’arrivo sul mercato internazionale di DeepSeek 3, il confronto con Chat GPT si è fatto inevitabile. Entrambi rappresentano modelli di intelligenza artificiale generativa all’avanguardia, ma con approcci tecnici e giuridici profondamente diversi.
In prima battuta, il modello cinese si distinguerebbe dal suo corrispettivo statunitense per una struttura più agile: secondo i suoi sviluppatori, esso utilizzerebbe molta meno energia per le operazioni di calcolo rispetto a Chat GPT. Questo risultato sarebbe stato ottenuto grazie a un’architettura interamente sviluppata in Cina, che di fatto ridurrebbe la dipendenza da tecnologie occidentali (secondo la politica del derisking impressa negli anni da Xi Jinping).
Ma, venendo all’ambito giuridico, è proprio qui che vengono in evidenza le differenze strutturali con Chat GPT. A questo riguardo, DeepSeek 3 ha adottato un approccio open source, consentendo agli sviluppatori di accedere al codice sorgente e di adattarlo alle proprie esigenze. Questo modello, che contrasta con la strategia commerciale di OpenAI basata su abbonamenti e licenze, potrebbe aprire a nuove possibilità di sviluppo condiviso. Tuttavia, solleva anche dubbi sul controllo della proprietà intellettuale e sulla sicurezza, soprattutto in contesti regolamentati come quello europeo.
Un’altra differenza, infine, sta nel metodo di apprendimento – ancora avvolto da molti dubbi – di DeepSeek 3: secondo le voci dei vertici dell’azienda di Hangzhou la nuova IA necessiterebbe di minori informazioni e di minor training per giungere alle stesse prestazioni del suo corrispondente americano, ottimizzando i dati presenti sulla Rete e le risorse per lo sviluppo tecnologico.
Comunque, molti aspetti restano ancora poco chiari per i potenziali utenti occidentali di questi nuovi servizi; ed è proprio questa incertezza a rappresentare la base delle possibili criticità che, in futuro, potrebbero sorgere tra DeepSeek e l’UE.

3. L’arrivo di DeepSeek 3 apre nuovi scenari per l’intelligenza artificiale generativa in Europa, ma il suo successo nel contesto dell’Unione Europea resta incerto. Ostacoli normativi, preoccupazioni sulla gestione dei dati e potenziali conflitti geopolitici potrebbero rallentarne l’adozione, nonostante le sue ambizioni tecnologiche.
Il 2024 è stato un anno cruciale e complesso per i provider di IA in Europa. L’entrata in vigore dell’AI Act ha imposto regole rigorose per garantire trasparenza, sicurezza e protezione dei dati personali, obbligando i giganti tecnologici a conformarsi a standard elevati. Ad esempio, OpenAI, con il suo Chat GPT, ha dovuto firmare un accordo con l’Unione Europea per adattarsi alla nuova normativa, evitando ulteriori restrizioni. Tuttavia, il percorso non è stato privo di difficoltà: in alcuni Paesi membri sono state comminate sanzioni significative anche per violazioni del GDPR. Ad esempio, guardando al contesto italiano, il caso di OpenAI ha acceso un fitto dibattito: dopo un primo ban temporaneo nel marzo 2023, nel dicembre 2024 il Garante per la protezione dei dati personali ha inflitto una multa di 15 milioni di euro per violazioni legate alla mancata ottemperanza del principio di trasparenza e dei relativi obblighi informativi nei confronti degli utenti. Questo scenario dimostra come le istituzioni europee siano ben decise a regolare e gestire l’IA, creando un contesto giuridico che non lascia spazio a compromessi sulla protezione dei diritti fondamentali.
Così dicendo, si capisce che l’ingresso di DeepSeek 3 nel mercato europeo non sarà privo di ostacoli. Due grandi sfide sembrano profilarsi all’orizzonte: la gestione dei dati personali e il controllo politico cinese.
Uno dei principali interrogativi riguarda il rispetto delle rigide normative europee sulla protezione dei dati, in particolare del già citato GDPR. DeepSeek dovrà dimostrare di poter garantire che i dati dei cittadini europei non vengano trasferiti né trattati in modo improprio al di fuori del territorio dell’UE, specialmente in territorio cinese. Al momento, non è chiaro se il modello adotterà una strategia simile a quella di ByteDance con TikTok - la quale negli ultimi tempi si trova in una situazione di stallo con la leadership statunitense, complice la clamorosa sentenza della Corte Suprema del 17 gennaio 2025 - attraverso la creazione di server localizzati per il mercato europeo e una differenziazione dei servizi per rispettare le norme locali. Senza tali misure, DeepSeek rischia di subire restrizioni o persino blocchi completi in alcuni Stati membri.
Un’altra questione decisiva riguarda il possibile controllo politico del governo cinese sulle operazioni di DeepSeek. La percezione di una forte influenza statale potrebbe sollevare dubbi sul rispetto della privacy, della libertà di espressione e dei diritti fondamentali degli utenti. Le clausole dell’AI Act, come quelle inserite agli articoli 5 e 7, prevedono infatti misure severe, compreso il blocco totale dei sistemi, nel caso di minacce alla sicurezza nazionale o ai diritti dei cittadini. Solo il tempo ci dirà se il colosso cinese deciderà di accordarsi con l’Unione Europea o vi entrerà in conflitto, così come accaduto con ByteDance stessa, con i conseguenti oscuramenti da parte di alcuni governi (come in Belgio, Danimarca e Paesi Bassi).
In definitiva, il futuro dell’IA non si giocherà solo sul terreno dell’innovazione tecnologica, ma anche su quello della trasparenza, della governance e della fiducia. In questa nuova corsa allo spazio digitale, l’Europa potrà ritagliarsi un ruolo significativo, garantendo ai propri cittadini la tutela dei diritti fondamentali e la protezione delle loro libertà digitali.


La sentenza T-323/2024: un focus sul processo di automazione delle corti in Colombia

1. Il tema dell’Intelligenza artificiale rappresenta già da qualche anno una certezza nel dibattito pubblico e giuridico. Non a caso, di recente, nel panorama europeo si sono aggiunti alcuni interventi legislativi - si pensi anche solo nell’immediato al Digital Services Act e, ancor di più, all’AI Act - finalizzati al rafforzamento delle categorie giuridiche già esistenti e al contenimento delle possibili fughe in avanti della incontrollata applicazione dell’IA.
Tuttavia, prescindendo dall’esegesi dell’orizzonte dottrinale continentale, la nostra attenzione, e in particolare quella attinente a questo contributo, si deve posare su un contesto diverso dal solito. Scendendo nello specifico, nel mese di agosto 2024 la Corte costituzionale colombiana si è espressa su di una causa avente come oggetto alcuni benefici statali in materia di accesso alle cure sanitarie da parte di soggetti che versano in situazioni economiche svantaggiose. Fin qui, guardando al tema, non sembra che si tratti di nulla di eccezionale, se non fosse che, nel corso del giudizio, è entrato in azione l’algoritmo di Chat GPT, ossia il più noto prodotto della società Open AI.
Proprio per questa novità assoluta, ossia l’utilizzo da parte di un soggetto pubblico di algoritmi e sistemi automatizzati generici di origine privata, in questa sede si ripercorre sinteticamente la vicenda, al fine di portare una testimonianza diversa sulle possibili conseguenze derivanti dall’uso di queste nuove infrastrutture digitali.

2. Ad essere onesti, la vicenda di cui si dà conto in questo post non rappresenta un esempio completamente avulso dal contesto giuridico colombiano. Infatti, da prima della pandemia di Covid-19, la Corte costituzionale colombiana lavora con l’aiuto dell’algoritmo PretorIA, ossia uno strumento automatizzato finalizzato alla migliore gestione delle cause derivanti dall’applicazione dell’art. 241 della Costituzione, il quale prevede l’istituto del c.d. amparo, ossia un ricorso diretto alla Corte in caso di lesione dei diritti fondamentali costituzionalmente garantiti.
Proprio per la gargantuesca mole di lavoro a cui sono sottoposti gli uffici e gli stessi giudici costituzionali per via del meccanismo ex art. 241, nel 2019 è stata richiesta all’Università di Buenos Aires la licenza per l’utilizzo dell’algoritmo predittivo Prometea (poi in seguito “personalizzato” e divenuto PretorIA), il quale pochi anni prima aveva rappresentato il primo esempio di strumento predittivo sviluppato in seno ad un’istituzione universitaria sudamericana.
Questo approdo verso la tanto temuta “giustizia predittiva”, soprattutto da parte di una certa dottrina locale, aveva lasciato molti dubbi e aveva ingiunto al confronto lo stesso Tribunale, il quale aveva liquidato la scelta adducendo motivazioni di tipo organizzativo, scongiurando, almeno per quel momento, un uso generalizzato del mezzo informatico.
Per le ragioni di cui sopra, sembrava pacifico a molti che l’uso da parte della componente giudiziaria del Paese di strumenti algoritmici potesse essere evitato almeno per qualche anno.
Difatti, secondo i primi risultati dell’utilizzo di PretorIA, non vi era stato alcun cambiamento nell’esercizio della funzione giurisdizionale in seno alla Corte; ugualmente accadeva per il resto del potere giudiziario, il quale non veniva toccato in maniera diretta dal cambiamento.
Tuttavia, complice la straordinaria facilità di uso e di accesso a Chat GPT, in tempi recenti si è assistito all’utilizzo della risorsa di Intelligenza artificiale generativa da parte dei giudici ordinari colombiani, senza che vi fosse una reale istituzionalizzazione di tale uso.

3. Volendo riavvolgere il nastro, nel 2022 la parte ricorrente decide di condurre in giudizio le c.d. Entidades Promotoras de Salud (d’ora in avanti EPS), ossia un gruppo di enti che fa riferimento al sistema sanitario colombiano, per tutelare il diritto del figlio minorenne - affetto da malattia dello spettro autistico - a godere di agevolazioni economiche in relazione alle prestazioni sanitarie e al trasporto verso le strutture di cura. Nello specifico, ciò che viene rivendicato è il riconoscimento dello stato economico disagevole, il quale viene contestato dall’ente pubblico.
Dopo la sentenza di primo grado favorevole alla parte ricorrente, la causa viene sottoposta ad appello ad inizio 2023. In questa sede la Corte di appello respinge nuovamente la richiesta dell’EPS, in quanto non sussistenti le prove ​​«che la ricorrente disponeva delle risorse finanziarie per coprire le spese legate alle cure mediche di suo figlio».
Ma proprio in questo frangente si viene a manifestare la novità del caso di specie: riferisce il Tribunale di appello che «tenendo conto che la legge 2213 del 2022 mira a integrare le ICT (per tali si intendono le c.d. ‘Information and communication technology’) nei processi giudiziari», il giudice ha avvertito che si sarebbe avvalso di strumenti di intelligenza artificiale generativa «per ampliare gli argomenti a favore della decisione adottata». Su questo passaggio della motivazione è stato poi allegato al testo il resoconto della discussione avuta tra il collegio giudicante e l’algoritmo di Chat GPT, il quale ha rappresentato a tutti gli effetti il primo caso conclamato di utilizzo di tale mezzo in seno all’attività giurisdizionale di un Paese.
Ben si può capire come, appena è stata pubblicata la sentenza di secondo grado, l’EPS abbia deciso di adire in via diretta la Corte costituzionale, al quale è stata sottoposta sia la domanda originaria nonché la sopravvenuta questione di legittimità costituzionale dell’uso di strumenti automatizzati all’interno dei procedimenti giudiziari ordinari.
Dopo un anno circa dal ricorso è stato pubblicato il responso della Corte, la quale si è espressa con toni di grande interesse per gli studiosi: scendendo nella lettura dell’atto, si nota come la Sala de Revisión abbia ritenuto che il diritto al giusto processo non sia stato violato dal giudice di secondo grado poiché «l'utilizzo di Chat GPT nel caso in esame non ha comportato un'usurpazione della funzione di amministrazione della giustizia affidata all’autorità giudiziaria competente». La decisione, quindi, non sarebbe stata concepita in autonomia dalla macchina (nello specifico, la Corte ci ha tenuto ad appurare il fatto per il quale la decisione del giudice di secondo grado fosse già stata presa e che il mezzo informatico sia stato utilizzato ad adiuvandum.)
Tuttavia, la Corte ha deciso di fare un passo in più sfruttando l’occasione: infatti, la Camera di Revisione ha ordinato al Consiglio Superiore della Magistratura colombiano di emanare linee guida sull’utilizzo futuro di IA in seno ai procedimenti giudiziari, al fine di tutelare l’autonomia e l’indipendenza della magistratura da ingerenze private e garantire al meglio il rispetto dei diritti fondamentali dei cittadini.

 4.Ciò descritto, viene da chiedersi cosa ci si debba aspettare dagli sviluppi di questa storia; secondo chi scrive l’attenzione deve ricadere su due prospettive.
In primis, è opportuno tenere sotto osservazione quali saranno le prossime mosse del Consiglio Superiore della Magistratura colombiano e - più in generale - del resto della magistratura ordinaria del Paese. In particolare, sarà interessante scoprire quale sarà l’atteggiamento che deciderà di mantenere il potere giurisdizionale in relazione alle linee dettate dalla politica legislativa dello Stato (che, come ricordiamo, virano verso un sempre più preponderante utilizzo di strumenti digitali nel settore giurisprudenziale, in particolare alla luce della predetta Legge 2213/2022) e come esso si tradurrà nelle attese Linee guida, le quali sono già in fase di studio.
Per quanto riguarda il secondo punto di vista, molto probabilmente sarà necessario attendere i pronunciamenti del potere giudiziario colombiano attraverso la pubblicazione delle policies in tema di uso di IA nelle corti. Tuttavia, la pronuncia ha il merito di rappresentare un’opera pionieristica nel settore, allertando le sensibilità dei giuristi anche culturalmente lontani da un contesto come quello colombiano.
In sintesi, ciò che questa sentenza restituisce è la visione di un futuro ricco di opportunità e altrettanti pericoli rispetto all’uso dell’IA all’interno del processo avente ad oggetto la materia dei diritti fondamentali. La responsabilità del giudice colombiano nell’atto di assumersi il compito di “superare per primo le Colonne d’Ercole” fa da monito all’intero universo del diritto e ai suoi diversi operatori, affinché si rifletta che senza accollarsi la responsabilità di possibili errori non sarà possibile trarre insegnamenti importanti per la costruzione del diritto futuro, il quale deve essere figlio e padre della società umana e mai ignavo complice di dantesca memoria.