1. Lo spazio di autoregolamentazione nel dominio del free speech
Rispetto alle molteplici accezioni di “autoregolamentazione” che si possono applicare al fenomeno riconducibile alla capacità delle piattaforme che gestiscono la parte predominante (e non solo in termini quantitativi) delle transazioni informative (e non solo informative) che avvengono sulla rete internet, vorrei innanzitutto perimetrare l’ambito all’interno del quale si intendono svolgere le considerazioni che seguono. Una prima precisazione attiene all’angolo visuale prescelto, che è quello offerto dalla libertà di espressione, come diritto fondamentale generalmente riconosciuto, su plurimi livelli e da una molteplicità di strumenti giuridici, normativi e convenzionali. Di questa libertà, prenderemo come punto di riferimento la declinazione “attiva”, ovvero la libertà di diffondere informazioni, di comunicare con un insieme non predeterminato di destinatari, la libertà di “manifestare liberamente il proprio pensiero”, secondo le parole – ad esempio - della Costituzione italiana. Lo facciamo, perché tale declinazione della libertà di informazione (oltre a costituire il nucleo indefettibile e primigenio di tale diritto), è anche quella che entra logicamente in gioco per prima quando si prende in considerazione il rapporto tra fornitore del servizio di piattaforma e utente di tale servizio. Questo secondo, infatti, è certamente interessato anche (spesso, soprattutto) a ricevere notizie, informazioni, pensieri altrui, con il che si fa manifestazione – piuttosto – della declinazione “passiva” della libertà di informazione. E purtuttavia, nella misura in cui il servizio di piattaforma consiste essenzialmente in una intermediazione (sulle cui caratteristiche si tornerà più avanti), ricevere informazioni, notizie e pensieri presuppone logicamente ed anzi ontologicamente che questi siano stati espressi, manifestati, comunicati da altri utenti (del servizio di piattaforma). Di qui la primauté che occorre riconoscere alla declinazione attiva della libertà di informazione dell’utente, proprio nel contesto, nell’ambiente informativo abilitato da internet, e strutturato dalle piattaforme.
Una seconda precisazione attiene ai caratteri degli scambi informativi veicolati dalle piattaforme che prenderemo in considerazioni, e che appaiono quelli maggiormente (sebbene, non esclusivamente) soggetti alla autoregolamentazione (self-regulation), nelle piattaforme. Prenderemo in considerazione quelle transazioni informative che, secondo i parametri dell’ordinamento giuridico generale (statale o sovranazionale che esso sia), si configurano come leciti. Si tratta, cioè, di tutti quei casi in cui la libertà di informazione (attiva) viene esercitata, e si estrinseca, senza intaccare diritti ed interessi altrui, secondo le modalità che l’ordinamento vieta (con la legge penale o amministrativa) o che comunque ritiene illecite (ad esempio, sanzionando il danno causato come risarcibile). Come noto, gli spazi entro i quali l’esercizio della libertà di espressione può configurarsi come illecita, variano – da ordinamento ad ordinamento – in ragione dell’ampiezza con cui è riconosciuto possibile limitare (condizionare, sanzionare, escludere) l’esercizio di tale diritto a tutela di altri concorrenti diritti, interessi, libertà (che da tale esercizio possono essere incisi/lesi). Nell’ordinamento statunitense, ad esempio, tali spazi sono ridotti ai minimi termini, in ragione della accentuata preminenza accordata alla libertà di espressione dal Primo emendamento (Schauer, 1982; Baker, 1977). Nel contesto europeo (Pollicino e Bassini, 2014; Flauss, 2009), come pure in quello latinoamericano (Bertoni, 2009), invece, tali spazi risultano più ampi, nella misura in cui l’ordinamento (già a livello costituzionale o convenzionale), riconosce che vi sono una serie (più o meno numerosa e/o dettagliata, ma comunque esplicitamente prevista) di diritti e interessi in base ai quali il legislatore può porre dei limiti all’esercizio della libertà di espressione. Sul punto, varrà la pena ricordare che proprio l’avvento della rete internet e delle dinamiche da essa innescate ha contribuito ad evidenziare ulteriormente le differenze tra questi differenti framework costituzionali della libertà di espressione, ed anzi ad ampliare le distanze tra i differenti contesti giuridici di riferimento (Pollicino, 2018; Schauer, 2005). Volendo riassumere (anche al prezzo di qualche semplificazione), si deve constatare che l’avvento della rete è stato letto dal legislatore federale statunitense, ma soprattutto dalla Corte Suprema, come un avanzamento tecnologico idoneo a dare piena realizzazione alla libertà protetta dal primo emendamento, con la conseguenza che tale libertà – qualora esercitata mediante tale mezzo – ne risulta pienamente coperta e garantita[1].Ciò che ha ulteriormente ridotto alcuni spazi di limitazione della libertà di espressione che in precedenza erano stati giustificati, in ragione delle caratteristiche intrinseche degli altri mezzi di comunicazione, a cominciare dalla loro scarsità economica. Sul continente europeo, per contro, si è messo in evidenza come da analoghe premesse (internet come tecnologia idonea ad abilitare effettivamente in capo a chiunque la possibilità di esprimere e veicolare il pensiero e le informazioni ad un insieme vasto ed indeterminato di destinatari) siano state ricavate indicazioni di segno opposto. La capacità di attivare da parte di chiunque un flusso maggiore e più intenso di informazioni è stata letta come circostanza idonea ad aumentare i rischi di lesione dei diritti e degli interessi contrapposti: tale maggiore rischio poteva quindi giustificare un differente bilanciamento, più sfavorevole per la libertà di informazione di quanto fosse stato ritenuto accettabile negli ambienti tecnologici precedenti[2].
Tuttavia, al netto di queste (pur rilevantissime) differenze, in tutti questi contesti giuridici permangono (amplissimi, o comunque molto ampi) spazi in cui l’esercizio della libertà di espressione (attiva) può concretamente esercitarsi in modo lecito. All’interno di questi spazi, essa non incontra limiti da parte del diritto positivo, ma – piuttosto – riceve (o dovrebbe ricevere) quel surplus di tutela che le deriva proprio dallo statuto di libertà fondamentale, ossia dalla circostanza per la quale la carta costituzionale (o la convenzione internazionale) ne protegge l’agire lecito (Pace, 1992). È con specifico riferimento a questo sottoinsieme (i discorsi veicolati dalle piattaforme, che risultano leciti secondo i parametri dell’ordinamento generale, e che come tali costituiscono esercizio legittimo della libertà di espressione) che svilupperemo il discorso riguardo all’autoregolamentazione.
2. Presupposti e strumenti dell’autoregolamentazione
Le piattaforme, e più in generale i cd. internet service provider, dispongono di differenti piani su cui operare, al fine di dare regola da sé al (autoregolamentare il) servizio prestato ai propri utenti. Un primo piano è di carattere propriamente tecnico, e consiste nella disponibilità della strumentazione mediante la quale il servizio è costruito, reso disponibile e concretamente gestito. Sotto questo profilo, la stessa predisposizione del mezzo, delle sue caratteristiche, nonché il relativo aggiornamento, adattamento e modificazione, costituiscono anche strumento (tecnico) di autoregolamentazione. Ad esempio, definire quante siano le tipologie di utente, connettendo a ciascuna di essere differenti livelli di capacità (tecnica) di interazione con gli altri utenti e con la piattaforma stessa, è una modalità con la quale si regolano (sotto il profilo meramente tecnologico) le facoltà di tali utenti (e della piattaforma), secondo il noto brocardo coniato da Laurence Lessig (1999), in accordo con il quale la disciplina (effettiva) dei rapporti che si sviluppano su un substrato costituto da un software va ravvista nel codice con cui tale software è realizzato ed implementato (“Code is Law”). Si tratta, quindi, di una facoltà di autoregolamentazione che spetta essenzialmente al solo fornitore del servizio (e che, come tale, gli utenti sono destinati a subire, salva la capacità di questi ultimi di incidere sulle determinazioni del fornitore, ma su di un piano distinto da quello tecnico), e che come tale si presenta con i caratteri distintivi del potere (un potere tecnico, appunto).
Come altrettanto noto, questo piano (tecnico) è stato doppiato anche da un piano più propriamente giuridico, laddove i fornitori dei servizi (ivi comprese le piattaforme) hanno ritenuto opportuno (quasi da subito) fornire di copertura l’esercizio delle facoltà di impostazione, adattamento e gestione del servizio, mediante appositi strumenti riconducibili alle condizioni contrattuali per la prestazione del servizio medesimo, che l’utente accetta sin dal momento in cui entra in contatto con il servizio medesimo. È dalle condizioni contrattuali (i Terms of service) che il prestatore del servizio riceve il fondamento giuridico (consensuale) all’esercizio di tutte quelle facoltà che gli consentono di gestire il servizio, anche laddove tali facoltà sono destinate ad incidere in modo significativo sull’esercizio in concreto delle libertà dell’utente, a cominciare (per quanto qui d’interesse) dalla libertà di espressione (attiva) (Suzor, 2016; Palka, 2018).
Per un verso, gli ISP hanno fatto ricorso alle clausole contrattuali per proteggersi da eventuali rivendicazioni, azionate sul piano giuridico, e mosse dagli utenti rispetto all’utilizzo del potere tecnico cui essi sono soggetti. In questo senso, il contratto opera come innanzitutto come uno “schermo” rispetto ad eventuali azioni di natura extracontrattuale intentate dagli utenti. Allo stesso tempo, tale approccio ha trovato sponda, e ulteriore conferma, nelle scelte regolatorie maturare a cavallo della fine del secolo scorso – su entrambe le sponde dell’oceano atlantico. Infatti, la strategia legislativa che ha mosso (variamente) nel senso di assicurare agli internet service provider l’immunità dalle transazioni illecite poste in essere dai propri utenti[3], ha certamente contribuito a consolidare in capo agli ISP uno spazio più “disponibile” ad essere gestito e moderato attraverso soluzioni tecniche “coperte” dalle clausole contrattuali di servizio, senza rischiare di incappare (così facendo) in moduli di responsabilità secondaria o sussidiaria (quali la culpa in vigilando, il concorso, etc.) (Quarta, 2020; Cogo, 2012).
In sintesi, lo spazio di autoregolamentazione di cui dispongono le piattaforme ha un fondamento tecnico (la predisposizione e la gestione del mezzo), contrattuale (la pattuizione delle condizioni di servizio) e normativo (in ragione della schermatura rispetto alla responsabilità secondaria per gli illeciti commessi dagli utenti, variamente assicurato dalle discipline positive nel corso dell’ultimo quarto di secolo).
3. La moderazione privata del discorso pubblico: una crisi di sistema
Le clausole contenute nelle condizioni contrattuali di servizio (i cd. Terms of service) consentono alla piattaforma di moderare il flusso di contenuti immessi e veicolati dagli utenti. Le clausole stabiliscono quali tipologie di contenuti, discorsi, comportamenti non sono ammessi, e predispongono le misure finalizzate a dare applicazione a tali divieti. In questo modo, le clausole contrattuali stabiliscono – in effetti - ciò che può essere detto e ciò che non può essere detto sulla piattaforma, e abilitano in capo alla piattaforma stessa il potere to enforce tali divieti. Tali clausole (e la loro concreta applicazione) incidono evidentemente nell’esercizio della libertà di espressione degli utenti, in particolare laddove il contenuto espressivo caricato dall’utente si eserciti nello spazio lasciato libero dall’ordinamento generale. Infatti, mentre le clausole che replicano divieti già previsti dalla legislazione pubblica finiscono per operare in termini che potremmo definire “sussidiari”, le altre clausole di moderazione, quelle che si spingono oltre e che pongono divieti e restrizioni a discorsi (altrimenti) leciti, costituiscono oggettivamente (ed effettivamente) una forma di limitazione in concreto dell’esercizio della libertà di espressione dell’utente. Un’ipotesi, in altri termini, di censura privata della libertà di espressione (Garry, 2003).
Tale evenienza non è sorprendente, né inedita. Per un verso, come noto, i testi di natura costituzionale, che fondano la tutela della libertà di espressione, indirizzano esplicitamente tale tutela nei confronti dell’esercizio del potere pubblico, e non di quello privato. Inoltre, erano del tutto comuni – anche prima dell’avvento delle piattaforme – fattispecie (del tutto lecite) di limitazione per via contrattuale della libertà di espressione. Si pensi alle clausole di confidenzialità variamente poste a protezione di segreti commerciali, industriali, etc. nella disciplina contrattuale dei rapporti di lavoro o di collaborazione professionale. Oppure, si pensi alle forme (lecite) di censura privata operate nell’ambito dell’impresa editoriale nei confronti dei collaboratori (quali giornalisti, redattori e collaboratori in genere), censura operata per effetto dei poteri di indirizzo e direzione di una testata giornalistica, anche sotto il profilo strettamente ideologico (Messina, 2023).
Nei rapporti interprivati, tali forme di limitazione/restrizione dell’esercizio della libertà di espressione risultano accettabili (e accettate) proprio perché la base contrattuale (su cui si fondano i poteri e le facoltà di limitazione della libertà di espressione) reca con sé la garanzia della libertà dell’utente. Infatti, il perfezionamento del contratto (con ciò che ne consegue), presuppone il consenso delle parti. In tal modo, la libertà di espressione della parte privata di un rapporto contrattuale che dispone in capo all’altra parte contrattuale il potere di limitarne l’esercizio, trova spazio di tutela in via preventiva (la facoltà di non aderire al contratto in questione) e in via successiva (la facoltà di recedere dal contratto); ovvero: la libertà di non sottoporsi all’esercizio dei poteri (contrattuali) di moderazione del discorso da parte del titolare della piattaforma (non accedendo al rapporto contrattuale), e la libertà di sottrarsi in qualsiasi momento all’esercizio di tali poteri (Theil, 2022).
L’evoluzione delle piattaforme, ed i caratteri assunti da questi global players, spiegano bene perché questi presupposti risultino ampiamente svuotati di significato – nel contesto attuale – e perché tale modello sia entrato in una crisi profonda (Moore e Tambini, 2018).
Le cd. Big Tech, tra le quali si annoverano le principali, più diffuse piattaforme utilizzate per la diffusione e lo scambio di informazioni, contenuti, idee, notizie, opinioni (cioè, per l’esercizio in concreto della libertà di espressione), si presentano come attori (quasi) monopolistici nei rispettivi mercati; mercati che travalicano i confini nazionali e si configurano come mercati/spazi operativi di carattere globale. Entro queste condizioni di fatto, i presupposti a tutela della libertà di espressione – nel quadro di un rapporto interprivato di carattere contrattuale – non solo sono posti fortemente in discussione, ma risultano spesso del tutto contraddetti. L’assenza di un mercato concorrenziale, caratterizzato da una pluralità di player, impedisce al consumatore/utente di disporre di un effettivo potere (di mercato) di scegliere tra modelli differenti di moderazione del discorso. L’asimmetria che – per tale ragione – si costituisce tra fornitore del servizio di piattaforma e utente è tale per cui la piattaforma dispone di un potere esorbitante quanto alla capacità di definire (unilateralmente) le regole di ciò che può essere detto e di ciò che non può essere detto, sulla piattaforma. La numerosità degli utenti che aderiscono e frequentano le (poche) piattaforme, comporta che gli spazi di diffusione, di discussione, di scambio così abilitati costituiscono in effetti gli spazi dove si sviluppa effettivamente il discorso pubblico. Spazi formalmente privati, che però per dimensioni, rilievo, capacità di diffusione dei contenuti rappresentano in effetti gli ambienti in cui si alimenta il confronto pubblico, si forma e si modella l’opinione pubblica, si dibattono e si aggrumano le opzioni e le posizioni politiche, economiche, sociali. Entro tali coordinate (fattuali) l’opting-in (aderire alla piattaforma) così come l’opting-out (abbandonarla) smettono di poter essere lette alla stregua di effettive clausole di salvaguardia della libertà (di espressione), dal momento che il loro concreto esercizio si risolverebbe – in effetti – nella pratica rinuncia all’esercizio in concreto della libertà di espressione, dal momento che è prevalentemente (se non, esclusivamente) in quegli spazi che tale libertà attualmente trova modo di potersi esplicare (da parte di chiunque)[4].
Correlativamente, e per le medesime ragioni, le piattaforme (in particolare, quelle di enormi dimensioni) dispongono di un potere effettivo di definire ed implementare ciò che è possibile dire nell’ambito del discorso pubblico. Dispongono cioè del potere di vietare/censurare discorsi (leciti per l’ordinamento generale), e di impedire agli utenti di partecipare alla formazione e al dibattito del discorso pubblico, in base alla violazione di regole formalmente private, anche in assenza di violazioni rilevanti nell’ordinamento generale.
Di qui, la crisi di sistema. Nel senso che oramai da tempo l’opinione pubblica, e con essa, i legislatori si pongono la questione se sia tollerabile che il discorso pubblico sia non solo abilitato, ma pure plasmato, dalle regole (e dalla loro applicazione domestica) poste da soggetti imprenditoriali, che operano su mercati monopolisti e di rilievo globale (Nielsen e Ganter, 2022; Kreiss e McGregor, 2018). Un assetto nel quale non solo – per le ragioni indicate – la libertà di espressione attiva finisce per essere assoggettata ad un potere privato[5], capace di limitarne l’esercizio ben all’interno dello spazio di libertà salvaguardato dagli ordinamenti generale-pubblici. Ma nel quale anche la libertà di ricevere e ricercare informazioni subisce analoga limitazione e condizionamento per effetto delle regole poste da questi esorbitanti poteri privati. Un assetto, cioè, che pone in dubbio alcuni dei caposaldi dei sistemi costituzional-democratici, tra i quali la libertà di espressione campeggia(va) quale “pietra angolare”[6].
4. Quale via d’uscita? Le (opposte) strade oggetto di dibattito e di intervento
Se questa analisi è (oramai) sufficientemente unanime, non lo sono altrettanto le vie, o meglio le direzioni che nel dibattito sono indicate come opportune (o necessarie) per trovare una via d’uscita dalla crisi.
Sul piano delle misure di mercato, cioè di quella tipologia di interventi che intenderebbero (ri)stabilire condizioni di equilibrio, restituendo potere di mercato all’utente, va segnalato che l’UE ha di recente intrapreso la strada dell’intervento regolatorio di carattere asimmetrico, volto cioè a contrastare in modo diretto il potere di mercato di questi attori. Il Digital Market Act[7], infatti, prevede una serie di misure regolatorie – applicabili alle piattaforme dominanti per dimensioni, numero di utenti, fatturato, identificate quali gatekeepers – che mirano (tra le altre cose) proprio a restituire alcune capacità/poteri di scelta in capo all’utente, imponendo ai gatekeeper (e solo ad essi, ex ante) misure pro-concorrenziali, idonee cioè a prevenire pratiche abusive, e a consentire ad imprese terze di competere per l’erogazione di servizi (compresi quelli di piattaforma, o quelli ancillari ai servizi di piattaforma), così da incrementare l’offerta di servizi effettivamente disponibili agli utenti (Richter et alt., 2021). È certamente prematuro formulare delle valutazioni, non solo sull’efficacia di queste misure, ma pure relativamente alla loro fattura (in termini di approccio regolatorio). Vale la pena di notare che in USA rimane tuttora prevalente l’approccio antitrust più classico (che opera mediante interventi ex-post)[8], mentre proprio l’approccio dell’UE (che mette nel mirino quasi esclusivamente imprese statunitensi, e cmq extraeuropee) è vissuto oltreatlantico con preoccupazione, e come un tentativo e di discriminare le big tech (Løgager, 2023; Licata, 2022).
4.1 Il dibattito negli Stati Uniti
Se dal piano del mercato si passa invece ad analizzare gli approcci (o i progetti) regolatori che mettono a tema direttamente il potere delle piattaforme di plasmare, condizionare, indirizzare, il discorso pubblico, ciò che emerge molto più chiaramente è che gli obiettivi perseguiti sono molteplici, e tendenzialmente opposti tra loro (cioè, difficilmente conciliabili).
In USA, ad esempio, il dibattito appare fortemente marcato lungo linee di divisione politica. Per un verso, ampi settori del partito democratico sono critici nei confronti delle piattaforme, perché ritengono che la moderazione dei contenuti (operata dalle piattaforme secondo lo schema dell’applicazione dei Terms of service) sia troppo blanda, arbitraria e unpredictable nel rimuovere/censurare i contenuti che sono ritenuti dannosi per sia per dibattito pubblico (è il caso della disinformazione, domestica o veicolata da attori stranieri), sia per la protezione delle dignità umana (come nel caso dell’hate speech, e della discriminazione razziale). Tali critiche hanno tratto ulteriore alimento per effetto dell’acquisto della piattaforma Twitter (ora X) da parte del magnate Elon Musk, il quale (quantomeno, sul piano delle intenzioni dichiarate) intende ridurre il peso della moderazione (a favore, cioè, di una maggiore libertà di espressione da parte dell’utente). Secondo queste correnti di pensiero, il regolatore pubblico dovrebbe intervenire per imporre alle piattaforme un determinato standard di moderazione, tale da rendere necessaria la rimozione dei contenuti qualificabili come disinformazione e hate speech[9]. Una prima ricaduta formale di questo approccio si può rintracciare nell’istituzione nel 2022, da parte dell’amministrazione Biden, del Disinformation governance board, con l’obiettivo di proteggere la sicurezza nazionale (in particolare, in coincidenza con le votazioni del midterm) contro alcune categorie di contenuti di disinformazione. Tale misura è stata però rapidamente ritirata, in ragione dell’apparente contrasto con il Primo emendamento (Weaver, 2024).
Di converso, ampie fette del partito repubblicano (ed in particolare, quelle che appoggiano il candidato alla presidenza Trump) ritengono a contrario che un intervento regolatorio sia indispensabile al fine di vietare alle piattaforme di moderare il discorso pubblico, salvaguardando in modo integrale il free speech degli utenti dalla censura privata. Queste linee di intervento hanno già trovato alcune prime forme di applicazione, ad esempio nelle leggi adottate nel 2021 dagli stati del Texas e della Florida (entrambi a guida repubblicana), e che sono attualmente oggetto di scrutinio da parte della Corte Suprema proprio con riferimento alla loro compatibilità con il Primo emendamento (Hans, 2023). Come si vede, le strade dibattute in USA per uscire dalla crisi sono diametralmente opposte, e alimentano una delle principali linee di faglia che contrappongono il partito democratico a quello repubblicano, in vista delle elezioni presidenziali del 2024.
4.2 Ambiguità ed ambivalenze nell’approccio dell’UE: il Digital Services Act
Sul fronte europeo, è possibile apprezzare uno scenario che presenta alcuni elementi di analogia con quello appena delineato, ma con alcuni importanti differenze, e correttivi. In primo luogo, il diverso framework normativo di partenza, che vede la libertà di espressione oggetto di più ampio bilanciamento con diritti e interesse contrapposti, nell’ambito dell’ordinamento generale, rende le (opposte) opzioni regolatorie appena richiamate in qualche modo apparentemente meno “drammatiche”, dal momento che quantomeno l’hate speech (o una parte consistente dei discorsi così qualificabili) è oggetto di divieto e di sanzione anche da parte della legge. Inoltre, nel contesto dell’Unione Europea tali approcci regolatori si sono già tradotti in uno strumento normativo di rilevante portata, il Digital services act (DSA)[10], ciò che consente di apprezzarne le ricadute sul piano delle scelte positive.
Ciò che emerge da questa analisi è l’ambiguità (di fondo) che caratterizza il DSA, proprio con riferimento al problema specifico di cui stiamo trattando, ovvero come approcciare la crisi sistemica determinata dallo straripante potere delle piattaforme di modellare (e censurare) il discorso pubblico (lecito). Vediamo, molto sinteticamente, quali sono questi punti di ambiguità.
Il DSA si caratterizza per aver introdotto una serie di misure che costringono, in particolare le piattaforme (e, con specifiche misure aggiuntive, le piattaforme di grandi dimensioni), a procedimentalizzare e rendere trasparenti i rapporti con l’utenza, proprio con riferimento alla moderazione dei contenuti (Gentile, 2023; Chiarella, 2023). Il DSA, per altro, distingue esplicitamente e chiaramente, nell’ambito dell’attività di moderazione cui le piattaforme sono chiamate, i “contenuti illegali” (tali perché non conformi al diritto dell'Unione o di qualunque Stato membro conforme con il diritto dell'Unione) e le informazioni “incompatibili con le condizioni generali”, di natura contrattuale. Una distinzione ricca di conseguenze. Ad esempio, le piattaforme sono tenute a predisporre meccanismi che consentano necessariamente la segnalazione di contenuti illegali, mentre l’abilitazione di segnalazioni relative a contenuti incompatibili con le condizioni di servizio è una mera facoltà (nemmeno contemplata, nel DSA). Di converso, le piattaforme sono tenute a fornire motivazioni “chiare e specifiche” delle misure di moderazione adottate, sia che queste siano mosse nei confronti di contenuti illegali, sia nel caso di misure adottate con riguardo a contenuti incompatibili con le condizioni di servizio
Le istanze di trasparenza così abilitate rendono certamente più leggibile e comprensibile l’esercizio del potere di moderazione, con ciò certamente contribuendo ad attenuarne i tratti di arbitrarietà nel relativo esercizio, anche con riferimento alla moderazione giustificata esclusivamente dall’applicazione dei Terms of service (Saldanha, Nogueira Dias, Guillaumon, 2022; Husovec, 2023). Tuttavia, in letteratura non si è mancato di segnalare che il ricorso allo strumento regolatorio della trasparenza può produrre anche un effetto di legittimazione del potere delle piattaforme (piuttosto che risolvere il problema di asimmetria rispetto all’utente) (Maroni, M. 2023). A ciò si deve aggiungere che il DSA richiede che le piattaforme agiscano “in modo diligente, obiettivo e proporzionato nell'applicare e far rispettare [tali restrizioni, ossia quelle di natura contrattuale, n.d.r.] tenendo debitamente conto dei diritti e degli interessi legittimi di tutte le parti coinvolte, compresi i diritti fondamentali dei destinatari del servizio, quali la libertà di espressione, la libertà e il pluralismo dei media, e altri diritti e libertà fondamentali sanciti dalla Carta [dei diritti fondamentali dell’UE]” (cfr. art. 14, comma 4). Questa disposizione, che vuole imporre all’esercizio del potere privato delle piattaforme di tenere conto – in modo diligente, obiettivo e proporzionato – (anche) della libertà di espressione dell’utente, sembra fare eco a quella linea interpretativa che intende dare ingresso alle istanze di tutela dai diritti fondamentali anche all’interno dei rapporti privati, quando si verifichino quelle specifiche condizioni (di qualificata asimmetria tra le parti) che ne giustificano la configurazione. È la dottrina del cosiddetto effetto orizzontale dei diritti fondamentali (la Drittwirkung), di matrice tedesca, e che in sede di giurisprudenza della Corte di giustizia dell’Unione ha fin qui trovato accoglimento in special modo con riferimento ad altri principi e diritti (si pensi, in particolare, al diritto alla privacy e alla tutela dei dati personali: Pollicino, (2018)), mentre alcuni giudici locali (in particolare, proprio in Germania, ma anche in Italia) lo hanno applicato anche a tutela della libertà di espressione degli utenti delle piattaforme (Kettemann e Tiedeke, 2020; Grandinetti, 2021; Vigevani, 2023). Dunque, il DSA pare così fornire una copertura esplicita all’esigenza di tenere conto della libertà di espressione, quando le piattaforme agiscono il potere di moderazione. Tuttavia, va notato che la disposizione in questione non risolve il contrasto tra potere delle piattaforme e libertà dell’utente, né fornisce criteri di carattere sostanziale su come le piattaforme debbano “tenere conto” di tale libertà (Frosio e Geiger, 2023). In tal modo, in effetti, tale disposizione in un certo senso prende atto di tale potere, e della sua idoneità a comprimere la libertà di informazione, ed in questo senso fornisce a tale assetto (anche) una indiretta legittimazione. Dunque, una disposizione dalle potenzialità ambigue, la cui efficacia si potrà misurare solo in ragione della sua applicazione giurisprudenziale.
Accanto agli elementi appena richiamati (e che vanno nel senso di una maggiore tutela per la libertà di espressione oggetto di moderazione da parte delle piattaforme), non mancano però elementi (ricavabili dal testo normativo) che spingono in senso opposto.
Dell’incerta efficacia del richiamo alla libertà di espressione, quale elemento di cui tenere conto nell’esercizio dei poteri di moderazione, si è appena detto.
Quanto agli altri, in primo luogo il DSA, all’art. 7, tenta di riproporre nel contesto europeo la cd. clausola del buon samaritano, che contraddistingue il regime di immunità degli ISP (e quindi, anche delle piattaforme) nell’ordinamento statunitense. Secondo il testo della nuova disposizione del DSA “i prestatori di servizi intermediari (e quindi, anche le piattaforme, n.d.r.) non sono considerati inammissibili all'esenzione dalla responsabilità (…) per il solo fatto di svolgere, in buona fede e in modo diligente, indagini volontarie di propria iniziativa o di adottare altre misure volte a individuare, identificare e rimuovere contenuti illegali o a disabilitare l'accesso agli stessi, o di adottare le misure necessarie per conformarsi alle prescrizioni del diritto dell'Unione e del diritto nazionale conforme al diritto dell'Unione, comprese le prescrizioni stabilite nel presente regolamento”. Ora, se è vero che la disposizione pare finalizzata ad agevolare le indagini volte a individuare e rimuovere “contenuti illegali”, è pur vero che lo svolgimento di tali indagini consente evidentemente anche di far emergere ed evidenziare contenuti anche solo incompatibili con le clausole di servizio. Tale misura, dunque, cospira nel senso di rinforzare la capacità (il potere) di moderazione anche dei contenuti leciti (Schwemer, 2023; Kuczerawy, 2021).
C’è poi da considerare che il DSA esplicitamente distingue, nell’ambito delle piattaforme, la categoria delle very large online platforms (al fine di enucleare ed imporre loro obblighi ed oneri aggiuntivi, in termini di trasparenza e non solo). Facendo ciò, il DSA assume le esorbitanti dimensioni delle piattaforme-Big Tech (ed il conseguente potere asimmetrico che ne deriva) come un dato di fatto, da cui partire, e non da mettere in discussione. Si potrebbe obiettare che tale questione è affrontata altrove, nel distinto ma strettamente connesso intervento normativo di cui si è già detto sopra, ossia il Digital market act (il che è certamente vero: Richter, 2021; Chiarella, 2023). Tuttavia, si deve anche osservare che è proprio alle very large online platforms (e a queste soltanto) che il DSA richiede misure specifiche per l’attenuazione dei cosiddetti “rischi sistemici”, e che tali rischi sono identificati (cfr. l’art. 35) in modo tale da poter essere ingenerati anche dalla diffusione di contenuti non illegali. Anzi, la declinazione delle tipologie di rischio sistemico rimanda in modo abbastanza esplicito sia alle categorie di interessi che acquistano rilievo nell’ambito della cd. lotta alla disinformazione (“eventuali effetti negativi, attuali o prevedibili, sul dibattito civico e sui processi elettorali, nonché sulla sicurezza pubblica”, nonché “qualsiasi effetto negativo, attuale o prevedibile, in relazione alla violenza di genere, alla protezione della salute pubblica e dei minori e alle gravi conseguenze negative per il benessere fisico e mentale della persona”), sia al relativo schema di riconoscimento (la nozione identifica i contenuti di disinformazione sulla base degli effetti “prevedibili” derivanti dalla loro diffusione: e effetti quindi solo ipotetici e futuri) (Nagasako, 2020). La stessa Commissione, può poi promuovere l’elaborazione e l’adozione di Codici di condotta, da parte delle very large online platforms, proprio per fare fronte a tali rischi sistemici. In questo meccanismo si annida la principale delle ambiguità che connotano il DSA, anche tenuto conto del fatto che i codici di condotta finalizzati al contrasto della disinformazione non costituiscono una opzione (pro futuro), ma una policy oramai stabilizzata (dopo la prima versione del 2018, nel 2022 ne è stata varata una nuova, elaborata in parallelo al DSA[11]). Per un verso, occorre aver chiaro che la nozione di disinformazione, così come elaborata nei codici di condotta attualmente operanti, comprende anche (soprattutto?) contenuti espressivi leciti secondo i parametri dell’ordinamento legale generale (Katsirea, 2019). Pertanto, la moderazione del discorso pubblico alla stregua della lotta alla disinformazione comporta la effettiva limitazione dello spazio disponibile all’esercizio della libertà di espressione (van Hobokenn e Fathaigh, 2021; Nagasako, 2020). Ciò che però non è (o non è soltanto) il frutto dell’(autonoma) iniziativa delle piattaforme ma, piuttosto, costituisce l’effetto di una specifica politica pubblica, promossa dalla Commissione Europea fin dal 2018 e oggi recepita nel DSA. Infatti, mentre le very large online platforms sono tenute ad adottare misure di attenuazione ragionevoli, proporzionate ed efficaci, per prevenire e gestire i rischi sistemici (art. 34), tali misure sono in effetti enucleate dai codici di condotta adottati su impulso della Commissione (art. 45). Entro tali coordinate, il DSA realizza un complesso sistema governance, in esito al quale il potere di moderazione delle piattaforme (con le sue potenzialità di compressione della libertà di espressione) potrebbe finire per essere funzionalizzato al perseguimento di obiettivi di interesse pubblico, secondo schemi regolatori del tutto estranei al (ed effettivamente preclusi dal) costituzionalismo liberal-democratico (Keller, 2019; Galantino, 2023).
Sotto questo profilo, l’esperienza più recente maturata in seno all’Unione Europea costituisce una efficace esemplificazione dei rischi e delle ambiguità dell’attuale fase storica, quella che in dottrina viene da alcuni identificata come caratterizzata dall’edificazione del digital constitutionalism (De Gregorio e Radu, 2022; Celeste, 2021). A seconda delle strade effettivamente intraprese o delle opzioni regolatorie prevalenti, sarà possibile comprendere se con questa espressione sarà stata designata una rilettura dei principi del costituzionalismo liberal-democratico (al fine garantirne la perdurante effettività, nel nuovo contesto dominato da poteri digitali), oppure un loro superamento (Golia, 2022).
Note
[1] Il leading case è tutt’oggi Reno vs ACLU, 1997; la Corte Suprema ebbe modo di verificare che “the Internet can hardly be considered a ‘scarce’ expressive commodity. It provides relatively unlimited, low-cost capacity for communication of all kinds”, e che - pertanto – “unlike radio, [internet] receives full First Amendment protection”; Reno v. ACLU, 521 U.S. 844 (1997), 870, 845.
[2] Paradigmatica, sotto questo profilo, è la giurisprudenza della Corte europea dei diritti dell’uomo, che pure non aveva esitato ad affermare (Stoll, 2007) che: “freedom of expression constitutes one of the essential foundations for a democratic society and one of the basic conditions for its progress and for each individual’s self‑fulfilment” (ma vedi già Handyside, 1976). Con l’avvento di internet, e con riferimento alla diffusione delle informazioni mediante questo mezzo, tuttavia, l’approccio della Corte muta e si adegua, come testimoniato da alcuni significativi passaggi di alcune fondamentali sentenze: “The risk of harm posed by content and communications on the Internet to the exercise and enjoyment of human rights and freedoms, particularly the right to respect for private life, is certainly higher than that posed by the press. Therefore, the policies governing reproduction of material from the printed media and the Internet may differ. The latter undeniably have to be adjusted according to technology’s specific features in order to secure the protection and promotion of the rights and freedoms concerned” (Editorial Board of PravoyeDelo and Shtekel vs Ukraine, 2011); “The safeguard afforded by Article 10 to journalists in relation to reporting on issues of general interest is subject to the provision that they are acting in good faith and on an accurate factual basis and provide ‘reliable and precise’ information in accordance with the ethics of journalism […] These considerations play a particularly important role nowadays, given the influence wielded by the media in contemporary society: not only do they inform, they can also suggest by the way in which they present the information how it is to be assessed. In a world in which the individual is confronted with vast quantities of information circulated via traditional and electronic media and involving an ever-growing number of players, monitoring compliance with journalistic ethics takes on added importance” (Stoll, 2007) Questo approccio è stato successivamente ribadito in Delfi vs Estonia (2015): “Defamatory and other types of clearly unlawful speech, including hate speech and speech inciting violence, can be disseminated like never before, worldwide, in a matter of seconds, and sometimes remain persistently available online”.
[3] Facciamo riferimento, in particolare, alla Section 230 del Communications Decency Act adotatta dal Congresso statunitense nel 1996, e alla Direttiva 2000/31/CE del Parlamento europeo e del Consiglio dell'8 giugno 2000 relativa a taluni aspetti giuridici dei servizi della società dell'informazione, in particolare il commercio elettronico, nel mercato interno («Direttiva sul commercio elettronico»), in spec. agli articoli da 12 a 15.
[4] Di recente, la Corte di giustizia dell’Unione Europea (Causa C-252/21, Meta Platrforms e a. (Condizioni generali di utilizzo di un social Network)) ha evidenziato gli elementi che consentono di considerare non pienamente disponibile la libertà di aderire o recedere da un contratto, o di accettarne le relative clausole, in ragione della posizione dominante rivestita dalla controparte. Il caso è molto significativo ai nostri fini, perché riguarda una piattaforma in posizione dominante (Facebook/Meta) e gli effetti di tale posizione di mercato sulla libertà di contrarre. Si riportano di seguito i passaggi più significativi della sentenza:
“147 A tal riguardo, occorre constatare che, certamente, la circostanza che l’operatore di un social network online, in quanto titolare del trattamento, occupi una posizione dominante sul mercato dei social network non osta, di per sé, a che gli utenti di tale social network possano validamente acconsentire, ai sensi dell’articolo 4, punto 11, del RGPD, al trattamento dei loro dati personali effettuato da tale operatore.
148 Ciò nonostante, come rilevato, in sostanza, dall’avvocato generale al paragrafo 75 delle sue conclusioni, una circostanza del genere deve essere presa in considerazione nella valutazione della validità e, in particolare, della libertà del consenso prestato dall’utente di detto social network, in quanto essa può incidere sulla libertà di scelta di tale utente, il quale potrebbe non essere in grado di rifiutare o di revocare il suo consenso senza subire pregiudizio, come indicato dal considerando 42 del RGPD.
149 Inoltre, l’esistenza di una siffatta posizione dominante è tale da creare uno squilibrio evidente, ai sensi del considerando 43 del RGPD, tra l’interessato e il titolare del trattamento, squilibrio che favorisce, segnatamente, l’imposizione di condizioni che non sono strettamente necessarie all’esecuzione del contratto, il che deve essere preso in considerazione conformemente all’articolo 7, paragrafo 4, di tale regolamento. In questo contesto, si deve ricordare che, come indicato ai punti da 102 a 104 della presente sentenza, non risulta, fatte salve le verifiche che il giudice nazionale dovrà effettuare, che il trattamento in causa nel procedimento principale sia strettamente necessario all’esecuzione del contratto tra Meta Platforms Ireland e gli utenti del social network Facebook.”
[5] Si deve notare che l’esercizio di un potere di controllo, moderazione, censura di ciò che è veicolato nello spazio formalmente “privato” delle piattaforme (fondato sull’esercizio delle clausole ToS), può essere attivato non solo su iniziativa della stessa piattaforma, ma anche su sollecitazione/segnalazione esterna, segnalazione che può provenire anche da attori pubblici. Sotto questo profilo, lo “schermo” del contratto, offre ai poteri pubblici un inedito canale (indiretto) di incisione sul discorso pubblico (laddove si esercita la libertà di espressione). Se e quando una segnalazione/pressione operata da un attore pubblico, e finalizzata a richiedere o ottenere la moderazione di un determinato contenuto, supera la soglia (sostanziale) della coercizione, tale operazione potrebbe essere (ri)letta quale diretta violazione del più tradizionale divieto di censura. In occasione del passaggio di proprietà della piattaforma Twitter/X, sono state evidenziate alcune di queste prassi (i cd. Twitter Files), da cui sono derivate molteplici controversie giudiziarie, nel corso delle quali alcuni giudici hanno stabilito che i funzionari pubblici avrebbero effettivamente violato il primo emendamento (Bhagwat, 2024). Tali controversie saranno oggetto – nei prossimi mesi – di una pronuncia della Corte Suprema USA (cfr. https://www.scotusblog.com/case-files/cases/murthy-v-missouri-3/; nonché
https://hls.harvard.edu/today/harvard-law-expert-explains-supreme-court-first-amendment-case-murthy-v-missouri/). Come è stato evidenziato più di recente, la segnalazione può anche provenire da attori del potere giudiziario (cfr. i cd. TwitterFiles – Brazil, https://apnews.com/article/brazil-musk-x-twitter-moraes-bef06c0dbbb8ed87495b1afbb0edf211)
[6] Così Come affermato dalla Corte Costituzionale italiana più volte, e fin dalle sue prime sentenze, la libertà di espressione va considerata una pietra angolare della democrazia e di uno Stato di diritto. Essa, infatti “è tra le libertà fondamentali proclamate e protette dalla nostra Costituzione, una di quelle […] che meglio caratterizzano il regime vigente nello Stato, condizione com’è del modo di essere e dello sviluppo della vita del Paese in ogni suo aspetto culturale, politico, sociale” (sent. n. 9/1965): quindi, il diritto di cui all’art. 21 è forse “il diritto più alto dei diritti primari e fondamentali sanciti dalla Costituzione” – parafrasando quanto affermato dalla Consulta (sent. n. 168/1971). Gli fa eco la Corte europea dei diritti dell’uomo, in Handyside vs UK (1976): “Freedom of expression constitutes one of the essential foundations of such a society, one of the basic conditions for its progress and for the development of every man”.
[7] Cfr. Regulation (EU) 2022/1925 of the European Parliament and of the Council of 14 September 2022 on contestable and fair markets in the digital sector and amending Directives (EU) 2019/1937 and (EU) 2020/1828 (Digital Markets Act).
[8] Fa eccezione il caso della piattaforma Tik-Tok, dove sono prevalse le preoccupazioni di ordine geopolitico, ovvero la tutela da (presunte) interferenze straniere (e cinesi, in particolare), ciò che ha condotto dapprima all’ordine di cedere il controllo della filiale americana ad una impresa statunitense (sotto la presidenza Trump), quindi al bando dai device di proprietà del governo federale (sotto la presidenza Biden) e degli stati, fino all’adozione della che prevede il bando della piattaforma sotto condizione della totale fuoriuscita dalla compagine azionaria della società madre ByteDance. Il disegno di legge, adottato Il 13 marzo 2024 dalla Camera dei Rappresentanti è in attesa dell’approvazione da parte del Senato.
[9] Si veda, a titolo di esempio, il progetto di legge (S. 1617) depositato il 18 maggio 2023 dal senatore democratico del Colorado Michael Bennet, “To establish a new Federal body to provide reasonable oversight and regulation of digital platforms”.
[10] Cfr. REGOLAMENTO (UE) 2022/2065 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 19 ottobre 2022 relativo a un mercato unico dei servizi digitali e che modifica la direttiva 2000/31/CE (regolamento sui servizi digitali).
[11] Cfr. “The Strengthened Code of Practice on Disinformation (2022)”, disponibile qui: https://digital-strategy.ec.europa.eu/en/library/2022-strengthened-code-practice-disinformation
Bibliografia
BHAGWAT, A. A. 2024. The Bully Pulpit or Just Plain Bully: The Uses and Perils of Jawboning. First Amendment Law Review, Forthcoming, http://dx.doi.org/10.2139/ssrn.4728456
Baker, C. E. 1977. Scope of the First Amendment freedom of speech. Ucla L. Rev., 25, 964.
BERTONI, E. A. 2009. The Inter-American Court of Human Rights and the European Court of Human Rights: a dialogue on freedom of expression standards. European Human Rights Law Review, 3, 332-352.
CELESTE, E. 2021. Digital Constitutionalism: Mapping the Constitutional Response to Digital Technology's Challenges. Direitos Fundamentais & Justica, 45, 63-92.
CHIARELLA, M. L. 2023. Digital Markets Act (DMA) and Digital Services Act (DSA): New Rules for the EU Digital Environment, Athens J.L. (1): 33-58
COGO, A. 2012, Le regole del contratto tra social network e utente nell’uso della proprietà intellettuale del gestore, dell’utente e degli altri utenti – riflessioni a partire dall’individuazione del fenomeno, dei suoi soggetti e della funzione del contratto, in AIDA, Annali Italiani del Diritto D’autore, della Cultura e dello Spettacolo, XX, 305 ss.
De Gregorio, G. e Radu, R. 2022. Digital constitutionalism in the new era of Internet governance, International Journal of Law and Information Technology, 30/1: 68–87, https://doi.org/10.1093/ijlit/eaac004
FLAUSS, J. F. 2009. The European Court of Human Rights and the freedom of expression. Ind. LJ, 84, 809.
FROSIO, G. e GEIGER, C. (2023). Taking fundamental rights seriously in the Digital Services Act's platform liability regime. European Law Journal, 29(1-2), 31-77. https://doi.org/10.1111/eulj.12475
GALANTINO, S. 2023. How will the eu digital services act affect the regulation of disinformation?. SCRIPTed: Journal of Law, Technology and Society, 20(1), 89-129.
GARRY, P., M. 2003. The First Amendment in a Time of Media Proliferation: Does Freedom of Speech Entail a Private Right to Censor. U. Pitt. L. Rev., 65, 183
GENTILE, G. 2023. Between Online and Offline Due Process: The Digital Services Act, in Annegret Engel and Xavier Groussot (eds.), New Directions in Digitalisation: Perspectives from EU Competition Law and the Charter of Fundamental Rights, Springer https://ssrn.com/abstract=4550655
GOLIA, A. 2022. The Critique of Digital Constitutionalism. Global Constitutionalism, 1-31. doi:10.1017/S2045381723000126, Max Planck Institute for Comparative Public Law & International Law (MPIL) Research Paper No. 2022-13, http://dx.doi.org/10.2139/ssrn.4145813
GRANDINETTI, O. 2021. Facebook vs. CasaPound e Forza Nuova, ovvero la disattivazione di pagine social e le insidie della disciplina multilivello dei diritti fondamentali. MediaLaws-Riv. dir. Media, 2:173-203 https://www.medialaws.eu/wp-content/uploads/2021/04/RDM-1-21-Grandinetti.pdf
HANS, G. S. 2023. Social media regulation at the supreme court. Cornell Law Forum, 48(2): 26-29
HUSOVEC, M. 2023. Rising above liability: The Digital Services Act as a blueprint for the second generation of global Internet rules. Berkeley Tech. LJ, 38: 883.
KATSIREA, I. 2019. “Fake news”: reconsidering the value of untruthful expression in the face of regulatory uncertainty. The Journal of Media Law, 10 (2): 159-188. https://doi.org/10.1080/17577632.2019.1573569
KELLER, D., 2019. Who Do You Sue? State and Platform Hybrid Power Over Online Speech, Hoover Institution, Aegis Series Paper No. 1902, 29 January, www.hoover.org/research/who-do-you-sue
KETTEMANN; M. C.; TIEDEKE; A., S. . 2020. Back up: can users sue platforms to reinstate deleted content?. Internet Policy Review, 9.2: 1-20
KREISS, D.; MCGREGOR, S. C. 2018, Technology firms shape political communication: The work of Microsoft, Facebook, Twitter, and Google with campaigns during the 2016 US presidential cycle. Political Communication, 2018, 35.2: 155-177
KUCZERAWY, A. 2021. The Good Samaritan that wasn’t: voluntary monitoring under the (draft) Digital Services Act, IN VerfBlog, 1/12, https://verfassungsblog.de/good-samaritan-dsa/ , DOI: 10.17176/20210112-181758-0
Lessig, L. 1999. Code and Other Laws of Cyberspace, Basic Books, New York
LICATA, P. 2022. Digital Markets Act, pressing Usa sull’Ue: “Allentare la stretta sulle Big tech”, Corriere comunicazioni, 8 Febbraio https://www.corrierecomunicazioni.it/digital-economy/digital-markets-act-pressing-usa-sullue-allentare-la-stretta-sulle-big-tech/
LØGAGER, P. 2023. Digital Market Acts and the Future of European Union’s Digital Sovereignty Policy : An Assessment of Structural Power, and Policy Implications for the Future (Dissertation). https://urn.kb.se/resolve?urn=urn:nbn:se:mau:diva-62377
MARONI, M. 2023. ‘Mediated Transparency’: The Digital Services Act and the legitimisation of platform power. In M. Hillebrandt, P. Leino-Sandberg, & I. Koivisto (Eds.), (In)visible European Government: Critical Approaches to Transparency as an Ideal and a Practice (pp. 305-326). Routledge - Taylor & Francis Group. https://doi.org/10.4324/9781003257936-19
MESSINA J., P. 2023. Private Censorship, Oxford Unviersity Press
MOORE, M.; & TAMBINI, D. 2018. Digital dominance: the power of Google, Amazon, Facebook, and Apple. New York, NY, Oxford University Press
NAGASAKO, T. 2020. A Consideration of the Case Study of Disinformation and Its Legal Problems. In: Kreps, D., Komukai, T., Gopal, T.V., Ishii, K. (eds) Human-Centric Computing in a Data-Driven Society. HCC 2020. IFIP Advances in Information and Communication Technology, vol 590. Springer, Cham. https://doi.org/10.1007/978-3-030-62803-1_2
NIELSEN, R.; K.; GANTER, S., Anne. 2022 The power of platforms: Shaping media and society. Oxford University Press,
PACE, A. 1992. Problematica delle libertà costituzionali, Parte speciale, Cedam, Padova
PALKA, P. J. 2018. Terms of Service are not Contracts – Beyond Contract Law in the Regulation of Online Platforms. In S. Grundmann (Ed.), European Contract Law in the Digital Age (pp. 135–162). Intersentia.
POLLICINO, O. 2018. L’efficacia orizzontale dei diritti fondamentali previsti dalla Carta. La giurisprudenza della Corte di giustizia in materia di digital privacy come osservatorio privilegiato, in MediaLaws. Rivista di diritto dei media, n. 3, 138-163. https://www.medialaws.eu/wp-content/uploads/2019/05/7.-Pollicino.pdf
POLLICINO, O. 2018. Tutela dei diritti fondamentali nell’era digitale e contesto valoriale: una indagine transatlantica. MediaLaws–Rivista di diritto dei media, (2), 39-52.
Pollicino, O.; Bassini, M. 2014. Free speech, defamation and the limits to freedom of expression in the EU: a comparative analysis. Research Handbook on EU Internet Law (pp. 508-542). Edward Elgar Publishing.
QUARTA, A. 2020. Mercati senza scambi: le metamorfosi del contratto nel capitalismo della sorveglianza, Napoli: Edizioni scientifiche italiane
RICHTER, H. et alt. 2021. To Break Up or Regulate Big Tech? Avenues to Constrain Private Power in the DSA/DMA Package (October 11). Max Planck Institute for Innovation & Competition Research Paper No. 21-25, Available at SSRN: https://ssrn.com/abstract=3932809
SALDANHA, D. M. F., DIAS, C. N., e GUILLAUMON, S. 2022. Transparency and accountability in digital public services: Learning from the Brazilian cases. Government Information Quarterly, 39(2). https://doi.org/10.1016/j.giq.2022.101680
Schauer, F. 1982. Free Speech: A Philosophical Enquiry. Cambridge: Cambridge University Press
Schauer, F. 2005, Freedom of Expression Adjudication in Europe and America: A Case Study in Comparative Constitutional Architecture, KSG Working Paper No. RWP05-019, Available at SSRN: https://ssrn.com/abstract=668523
SCHWEMER, S. F. 2023. Digital Services Act: a reform of the E-Commerce Directive and much more. In Research handbook on EU internet law (pp. 232-252). Edward Elgar Publishing. https://doi.org/10.4337/9781803920887.00020
SUZOR, N. 2016. Digital Constitutionalism: Using the Rule of Law to Evaluate the Legitimacy of Governance by Platforms GigaNet: Global Internet Governance Academic Network, Annual Symposium 2016, https://ssrn.com/abstract=2909889
THEIL, S. 2022. Private censorship and structural dominance: Why social media platforms should have obligations to their users under freedom of expression. The Cambridge Law Journal, 81(3), 645–672. doi:10.1017/S0008197322000484
VAN HOBOKEN, J. e FATHAIGH, R. O. 2021. Regulating Disinformation in Europe: Implications for Speech and Privacy. UC Irvine Journal of International Transnational, and Comparative Law, 6, 9-36
VIGEVANI, G. E. 2023. Dal “caso Casapound” del 2019 alla “sentenza Casapound” del 2022: piattaforme digitali, libertà d’espressione e odio on line nella giurisprudenza italiana, in MediaLaws Rivista di diritto dei media, 2-2023, pp. 143-157
WEAVER, R. L. 2024. Remedies for" Disinformation". University of the Pacific Law Review, 55(2): 185-