ORESTE POLLICINO*
1. I valori in gioco
Dignità, democrazia, stato di diritto, pluralismo, uguaglianza, rispetto dei diritti umani. Sono alcuni dei valori che l’articolo 2 del Trattato sull’Unione europea pone quale bussola su cui si fonda l’Unione e che, secondo la medesima disposizione, sono comuni agli stessi stati membri, rappresentando quindi quel patrimonio costituzionale comune del vecchio continente[1].
I valori richiamati, a cui la più recente giurisprudenza della Corte di Lussemburgo ha attribuito efficacia vincolante, identificandoli peraltro quale essenza stessa dell’identità costituzionale dell’Unione[2], sono oggi “sotto stress” per tutta una serie di ragioni, tra cui quella più plasticamente evidente è la crisi dello stato di diritto. Crisi che consta di un insieme di concause e conseguenze la cui complessità non consentirebbe, ovviamente, un’esplorazione completa in questa sede
Il focus è più specifico. Guardare al rapporto tra nuove tecnologie e valori democratici può essere un osservatorio privilegiato per indagare lo stato di salute della rule of law, non solo nel contesto digitale. In particolare, ci si concentrerà sull’impatto che l’esplosione dell’intelligenza artificiale, specialmente di natura generativa[3], sta producendo sui valori che caratterizzano una società caratterizzata, seguendo l’impostazione dell’articolo 2 del TUE prima richiamato, «dal pluralismo, dalla non discriminazione, dalla tolleranza, dalla giustizia, dalla solidarietà e dalla parità tra donne e uomini».
Da quando, nella prima metà del 2023, è apparso evidente, soprattutto a seguito del caso ChatGPT, lo scatto in avanti – in termini di rischi, opportunità e distanza rispetto alla regolazione giuridica – che i nuovi modelli di carattere generativo portavano con sé, il nuovo ecosistema digitale ha occupato sempre più spesso le prime pagine dei grandi quotidiani. Da quel momento in poi allucinazioni e rischi esistenziali connessi all’emergere dell’intelligenza artificiale sono divenuti il pane quotidiano non solo per i media, ma anche per gli esperti in materia, il cui numero è cresciuto a dismisura, nonché per le istituzioni – tanto di livello nazionale, quanto europeo e persino globale – e, ovviamente, per i poteri, sia pubblici sia privati.
Gli ultimi mesi si sono caratterizzati, anche da un punto di vista più strettamente giuridico, per una vera propria corsa o, meglio, rincorsa alla regolazione del nuovo ecosistema digitale: una competizione geopolitica di natura globale che ha visto l’emergere di una serie di normative dentro e fuori l’Europa. Dal nuovo Regolamento europeo sull’intelligenza artificiale (Artificial Intelligence Act, AIA) approvato nella prima metà del 2024[4], che conferma il primato europeo dal punto di vista regolatorio – ma non tecnologico – passando per il tentativo cinese (a forte traino dirigista) di trasformare i propri campioni nazionali dell’intelligenza artificiale in campioni globali[5], giungendo fino all’ordine esecutivo di Biden di ottobre 2023[6], che per la prima volta segna un clamoroso passaggio negli Stati Uniti da un meccanismo di self-regulation a una parziale co-regolamentazione del settore, si è assistito di recente a un vertiginoso incremento degli sforzi regolativi in materia di intelligenza artificiale. La Dichiarazione di Bletchley, adottata a Londra a novembre 2023, ha inoltre rappresentato essa stessa un tentativo di promuovere sul piano internazionale un approccio quanto più cooperativo possibile nell’adozione di strategie di governance nel settore Nel frattempo, il 17 maggio 2024, durante la riunione annuale del Comitato dei Ministri del Consiglio d’Europa, è stata approvata la Convenzione Quadro sull’Intelligenza Artificiale, primo trattato internazionale giuridicamente vincolante in materia di IA.
Alla luce della descritta accelerazione tecnologica, cui è seguita, come appena menzionato, una reazione – necessariamente più lenta ma sicuramente vigorosa – di carattere regolamentare, la domanda di ricerca alla base dell’analisi che segue è la seguente: quali sono i campi da gioco più rilevanti che possono costituire un osservatorio privilegiato sotto il profilo del rapporto tra le tecnologie dell’automazione ed i valori democratici prima richiamati?
Noi ne abbiamo individuati due: in primo luogo, quello relativo alla disinformazione, a cui ovviamente è legato a doppio filo il tema della tutela (e dei limiti alla protezione) della libertà di espressione; in secondo luogo, quello relativo al profilo della discriminazione algoritmica. Saranno, questi due temi, l’oggetto privilegiato dell’analisi che seguirà.
Come sempre accade, anche con riferimento alle due anime (disinformazione e discriminazione) dell’osservatorio appena identificato, le opzioni di politica del diritto prescelte sono fortemente influenzate dall’humus valoriale che caratterizza gli ordinamenti in questione. Semplificando al massimo una questione che meriterebbe ben altro approfondimento, ma che vale la pena in questa sede accennare, si potrebbe dire che, se la parola chiave del costituzionalismo statunitense è “libertà”, quella del costituzionalismo europeo è, e non poteva non esserlo, “dignità”[7].Più precisamente, esiste una profonda frattura di fondo che oppone alla visione nordamericana, incentrata sull’esaltazione del Primo emendamento, una rappresentazione squisitamente europea fondata sul predominio assiologico della protezione dei dati.
La libertà di espressione è stata interpretata da sempre nel diritto costituzionale statunitense come la stella polare, il diritto che segna la caratterizzazione di quell’ordinamento giuridico. Questo atteggiamento trova emersione nella cornice valoriale adottata dalla Corte Suprema, incline a esaltare fin dalla prima pronuncia in materia l’inedita dimensione libertaria del fenomeno internet. Da subito, agli occhi della Corte Suprema statunitense, internet ha offerto coordinate e spazi nuovi per l’esercizio della libertà di parola, ai quali occorre guardare attraverso lenti e categorie diverse da quelle che si applicano ai media tradizionali. Da qui la scelta, in Reno c. ACLU[8], di mutuare dalla celebre dissenting opinion di Justice Holmes in Abrams c. Stati Uniti[9] l’utilizzo della metafora del free marketplace of ideas, la cui importazione nell’ordinamento europeo è stata la causa principale, come si dirà, delle questioni costituzionali sollevate dal consolidamento di nuovi attori privati, come anche dimostrato dal parziale fallimento del primo codice di condotta dell’Unione europea in tema di lotta alla disinformazione.
Rispetto all’assetto valoriale statunitense appena descritto possiamo dire, semplificando, che tale libertà in Europa si gioca la sua partita “alla pari” con altri diritti fondamentali e non gode di quella prevalenza assiologica che caratterizza la posizione e l’interpretazione del Primo emendamento nell’ordinamento statunitense. Ci sono almeno due elementi che confermano questo quadro e sono rintracciabili, entrambi, all’interno del quadro della Convenzione europea sui diritti dell’uomo (CEDU). Innanzitutto, l’articolo 10 della Convenzione europea dei diritti dell’uomo, al suo secondo comma, prevede un qualcosa di assolutamente “irricevibile” per il costituzionalismo statunitense: ovverosia la codificazione espressa (presente del resto con riferimento a tutte le altre libertà e diritti previsti dal medesimo testo convenzionale) di limiti e quindi di restrizioni a quella libertà, giustificate alla luce della stella polare del costituzionalismo europeo – e cioè, il principio di responsabilità. In secondo luogo, ed è questo un altro concetto quasi blasfemo per il diritto costituzionale d’oltreoceano, la Convenzione (ma anche la Carta dei diritti fondamentali dell’Unione) prevede espressamente la possibilità dell’abuso del diritto[10], a conferma di quell’ottica di non assolutezza, bilanciamento e pari-ordinazione tra diritti quali caratteristiche delle tradizioni costituzionali comuni europee.
Proprio questa impostazione più moderata, che considera la libertà di espressione in modo analogo ad altri diritti pari-ordinati, ha permesso di gettare le fondamenta per interventi normativi più moderni. In questo senso, sembra importante, quanto meno il Regolamento generale sulla protezione dei dati (GDPR)[11], i Regolamenti “gemelli” sui servizi digitali (Digital Services Act, DSA)[12] e sui mercati digitali (Digital Markets Act, DMA)[13], il già menzionato Artificial Intelligence Act, ma anche il nuovo Codice di condotta contro la disinformazione pubblicato il 16 giugno del 2022[14], nonché i recentissimi Regolamenti sulla trasparenza e il targeting della pubblicità politica[15] e sulla libertà dei media[16].
2. Disinformazione quale terreno privilegiato d’indagine.
Alla luce del quadro appena tracciato, ci si vuole brevemente concentrare su tutela (ed i limiti di detta tutela) della libertà di espressione, con particolare riguardo alle opzioni di lotta al fenomeno della cosiddetta “disinformazione”. Quest’ultima identifica la diffusione intenzionale di contenuti e informazioni false al fine di trarne un vantaggio o creare nocumento ad altri: definizione, questa, che è stata direttamente adottata nell’ambito dell’Unione europea, tra l’altro, dal piano d’azione della democrazia europea[17] oltre che dall’High Level Group on fake news and online disinformation.
Dal punto di vista costituzionale, il problema della disinformazione apre le porte a una pluralità di “scelte tragiche”[18]sotto il profilo regolatorio. Da un lato, infatti, l’idea stessa di una regolazione del “falso” e, quindi, la possibilità per lo stato di definire e vietare ciò che sia da considerarsi falso pongono interrogativi particolarmente significativi in termini di tutela della libertà di espressione e aprono al rischio di una progressiva imposizione dall’alto di verità, per così dire, “di regime”: invero, occorre ricordare che, «in una società democratica e in uno stato di diritto, di regola, è lecito enunciare il falso o, per meglio dire, ciò non dà luogo a conseguenze giuridicamente rilevanti»[19]. Inoltre, come si è da più parti osservato, il problema delle comunemente note “fake news” non è di per sé un problema esclusivamente nuovo, avendo interessato la vita politica fin dall’antichità.
Dall’altro lato, le tecnologie digitali e le stesse strutture informazionali e mediatiche affermatesi in anni recenti hanno innegabilmente determinato una trasformazione quasi ontologica del problema della disinformazione nel contesto contemporaneo. L’utilizzo dell’IA nella governance (privata) della libertà di espressione in rete e le sue applicazioni nella creazione stessa di contenuti falsi e tuttavia all’apparenza veritieri (si pensi, in particolare, al fenomeno dei deepfake) hanno portato a un significativo mutamento, sotto il profilo quantitativo e qualitativo, del potenziale impatto che il “falso” può avere nel contesto di una società democratica e, in particolare, nel contesto di processi democratici ed elettorali.
In tal senso, appare quanto meno doveroso interrogarsi – tanto più in un anno di “elezioni globali” quale è il 2024 ed alle cruciali tornate elettorali dei prossimi anni – sulla validità odierna della metafora, già richiamata e tanto cara alla tradizione costituzionale statunitense, del “libero mercato delle idee” secondo cui, alla stregua delle leggi economiche della domanda e dell’offerta, la “mano invisibile” del mercato sarebbe in grado di garantire la vittoria e, di conseguenza, la maggiore diffusività, delle idee più corrette e persuasive. In un contesto informazionale in cui la reperibilità e diffusività delle notizie è sempre più mediata dall’azione dell’algoritmo di piattaforme private, e ove risulta sempre più labile la linea di demarcazione tra falsità e realtà, è lecito porre in questione che lo stesso mercato sia effettivamente da considerarsi ancora “libero”[20].
Ovviamente il campo da gioco privilegiato per affrontare tali questioni è quello rappresentato dalla stagione elettorale. Occorre infatti interrogarsi su come e in che misura il dibattito pubblico, in generale, e le scelte dei singoli elettori, in particolare, possano essere influenzate, ed addirittura manipolate, dal cocktail esplosivo disinformazione/intelligenza artificiale, alla luce, tra l’altro, delle dinamiche informazionali che caratterizzano internet e il panorama digitale[21].
Un assaggio assai evidente dell’impatto dell’IA (e soprattutto dei cosiddetti deepfake) all’interno del contesto elettorale si è avuto del resto già in occasione delle elezioni presidenziali argentine del 2023[22]. Significative preoccupazioni di simili interferenze si sono profilate altresì nei mesi antecedenti le elezioni statunitensi ed europee[23]. Tali episodi sono particolarmente indicativi di quanto l’intelligenza artificiale di tipo generativo possa giocare un ruolo determinante nell’amplificare la disinformazione e, quindi, il disorientamento dell’elettore medio.
Tra deepfake e frasi mai pronunciate è emerso chiaramente come le allucinazioni interne alla comunicazione politica sulle piattaforme social – che, almeno a detta della Corte Suprema degli Stati Uniti, rappresentano ormai i luoghi privilegiati per alimentare il (da vedere quanto effettivamente libero) mercato delle idee[24] – possano giocare un ruolo cruciale nell’esito delle elezioni. Alcune piattaforme si sono mosse per identificare chiaramente quando un messaggio di comunicazione politica sia frutto di un’automazione algoritmica, ma ci sembra che un compito così rilevante per l’assicurazione di un elevato livello di democrazia e rule of law non possa essere lasciato solo ed esclusivamente alle buone intenzioni dei poteri privati, né si può correre il rischio di una geometria variabile sul punto. In questo senso, l’Unione europea ha, in particolare, tracciato la strada in primis attraverso l’elaborazione nel 2022 del nuovo codice di buone pratiche rinforzato e l’adozione, nello stesso anno, del Digital Services Act: una strategia che ha determinato il passaggio, da un modello di self regulation a un modello di co-regulation. A seguito di tale passaggio, in particolare, l’Unione è intervenuta in modo più incisivo nel contesto della rimozione di contenuti che alimentano la disinformazione – come dimostrano, del resto, le misure recentemente prese nei confronti di X di Elon Musk[25].
Nel frattempo, negli Stati Uniti, anche in vista delle elezioni politiche che potrebbero decidere le sorti degli equilibri globali per parecchi anni, si è capito che la protezione sacrale di cui gode la libertà di espressione, che include anche in qualche modo le fake news, non può trasformarsi, grazie al cocktail esplosivo disinformazione/IA, in un diritto a frodare l’elettore americano nel momento in cui quest’ultimo esercita il più importante tra i suoi diritti politici. Per questo, nelle audizioni che si sono svolte a settembre del 2024 presso la commissione elettorale federale, si è pensato ad una normativa che in modo assai chirurgico possa tutelare proprio il diritto dell’elettore a non essere frodato attraverso campagne di disinformazione. Un diritto che, a detta di alcuni, non solo non confliggerebbe, ma sarebbe parte integrante del portato del Primo Emendamento.
Il problema è che, negli Stati Uniti, vi è una situazione abbastanza paradossale quanto al (non) contrasto contro la disinformazione online. Da una parte, si avverte un certo terrore – invero fondato, visto quanto è stato provato con riferimento ai professionisti della disinformazione che hanno inquinato il dibattito e provato ad incidere sull’esito delle votazioni in occasione delle elezioni politiche Trump contro Clinton – della possibilità di interferenze esterne per le lezioni del 2024. Dall’altra parte, vi è un altro terrore che aleggia e che costituisce quasi un tabù per ogni tentativo di regolazione: quello, anche in questo caso culturalmente prima che costituzionalmente comprensibile, di poter minare in qualsiasi modo le fondamenta di sua maestà free speech. Un terrore, quest’ultimo, tanto forte da condurre una corte federale a concludere che anche una semplice comunicazione da parte della Casa Bianca, contenente l’invito alle grandi piattaforme di impegnarsi ad evitare che in rete vi siano contenuti falsi rispetto a temi sensibili come quello elettorale e della salute pubblica, rappresenti una condotta contraria al Primo Emendamento.
La bipolarità tra modello statunitense e modello europeo va ridotta, se non ad unità, ad un minimo di armonia prima di pensare a qualsiasi strategia contro la disinformazione che vada oltre la self-regulation. Certamente irrealistico, in questo momento, pensare ad innestare in questo tessuto – prima ancora che giuridicamente – culturalmente assai frammentario, il meccanismo di co-regolamentazione alla base del nuovo codice dell’Unione contro la disinformazione e, ancora più recentemente, il già menzionato Regolamento su trasparenza della pubblicità politica (in questo caso trattasi di “hard law”). Entrambe le fonti appena menzionate saranno oggetto di analisi specifica nelle pagine che seguiranno.
La maggior parte degli esperti indipendenti che sono stati ascoltati nelle audizioni statunitensi prima menzionate lamentano che le legislazioni rilevanti (peraltro assai settoriali e frammentarie) si fondano esclusivamente su regole procedurali e non su valori sostanziali. In Europa ci sono voluti circa venti anni per capire, con il Digital Services Act e in parte con l’Artificial Intelligence Act, che costruire una regolamentazione europea dell’ecosistema digitale soltanto su valori costituzionali sostanziali dell’Unione rischia di realizzare una fortezza europea, inespugnabile all’interno ma senza ponti levatoi di interconnessione con gli altri poli geopolitici rilevanti – quali per esempio gli Stati Uniti e la Cina[26].
[1] Vedi Alessandro Pizzorusso, Il patrimonio costituzionale europeo, Bologna, Il Mulino, 2002.
[2] CGUE, causa C-156/21, Ungheria c. Parlamento europeo e Consiglio dell’Unione europea, sentenza del 16 febbraio 2022; causa C-157/21, Polonia c. Parlamento europeo e Consiglio dell’Unione europea, sentenza del 16 febbraio 202
[3] L’intelligenza artificiale generativa è quella finalizzata alla sintesi (o manipolazione) artificiale di contenuti (testuali, grafici, audio, audiovisivi ecc.).
[4] Regolamento (UE) del Parlamento e del Consiglio del 13 giugno 2024 [non ancora pubblicato, ndr], che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 201/797 e (UE) 2020/1828 (legge sull’intelligenza artificiale).
[5] Johanna Costigan, «China’s New Draft AI Law Prioritizes Industry Development», 22 marzo 2024.
[6] Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, 30 ottobre 2023.
[7] Si veda, più in dettaglio, Oreste Pollicino (2023), «The quadrangular shape of the geometry of digital power(s) and the move towards a procedural digital constitutionalism», European Law Journal, 29(1-2), pp. 10-30.
[8] Corte Suprema degli Stati Uniti, Reno c. ACLU, 521 US 844 (1997).
[9] Corte Suprema degli Stati Uniti, Abrams c. Stati Uniti, 250 US 616 (1919), pp. 624-631.
[10] Art. 17 CEDU e art. 54 Carta dei diritti fondamentali dell’Unione europea
[11] Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati).
[12] Regolamento (UE) 2022/2065 del Parlamento europeo e del Consiglio del 19 ottobre 2022 relativo a un mercato unico dei servizi digitali e che modifica la direttiva 2000/31/CE (regolamento sui servizi digitali).
[13] Regolamento (UE) 2022/1925 del Parlamento europeo e del Consiglio del 14 settembre 2022 relativo a mercati equi e contendibili nel settore digitale e che modifica le direttive (UE) 2019/1937 e (UE) 2020/1828 (regolamento sui mercati digitali).
[14] Codice di buone pratiche sulla disinformazione, 16 giugno 2022.
[15] Regolamento (UE) 2024/900 del Parlamento europeo e del Consiglio, del 13 marzo 2024, relativo alla trasparenza e al targeting della pubblicità politica.
[16] Regolamento (UE) 2024/1083 del Parlamento europeo e del Consiglio, dell’11 aprile 2024, che istituisce un quadro comune per i servizi di media nell’ambito del mercato interno e che modifica la direttiva 2010/13/UE (regolamento europeo sulla libertà dei media).
[17] Comunicazione COM/2020/790 della Commissione del 3 dicembre 2020 al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni sul piano d’azione per la democrazia europea.
[18] Guido Calabresi e Philip Bobbitt, Scelte tragiche (2 ed., trad. it. di Cosimo Marco Mazzoni e Vincenzo Varano), Milano, Giuffrè, 2006.
[19] Massimo Durante, Potere computazionale: l’impatto delle ICT su diritto, società, sapere, Milano, Meltemi, 2019, p. 195.
[20] Si veda, in tal senso, Oreste Pollicino (2017), «Fake News, Internet and Metaphors (to be handled carefully)», Italian Journal of Public Law, 1, pp. 1-5.
[21] Si vedano in questo senso, tra gli altri, Michela Manetti (2023), «Internet e i nuovi pericoli per la libertà di informazione», Quaderni costituzionali, 3, pp. 523-543; Corrado Caruso (2023), «Il tempo delle istituzioni di libertà. Piattaforme digitali, disinformazione e discorso pubblico europeo», Quaderni costituzionali, 3, pp. 543-568; Oreste Pollicino, «Di cosa parliamo quando parliamo di costituzionalismo digitale?», op. cit.
[22] Luigi Garofalo, «In Argentina elezioni a colpi di IA, i due leader si sono sfidati con i deepfake», 21 novembre 2023.
[23] Clothilde Goujard, «EU turns to Big Tech to help deepfake-proof election», 7 febbraio 2024.
[24] Così, in Corte Suprema degli Stati Uniti, Packingham c. North Carolina, 582 US __ (2017), p. 8, i social network sono definiti come «the principal sources for knowing current events, checking ads for employment, speaking and listening in the modern public square, and otherwise exploring the vast realms of human thought and knowledge».
[25] «Ue apre indagine contro X, “chiarisca su disinformazione”», 12 ottobre 2023.
[26] Paradigmatico, in tal senso, è il caso del GDPR: si veda, sul punto, Oreste Pollicino, Judicial Protection of Fundamental Rights on the Internet. A Road Towards Digital Constitutionalism?, Oxford, Hart, 2021.
* Professore ordinario di Diritto costituzionale – Università “Bocconi” (Milano) e membro italiano dell’Agenzia europea per la protezione dei diritti fondamentali.
Sul medesimo argomento vedi anche il contributo di Carlo Amirante.