Commissione EU: Facebook, Instagram e TikTok violano gli obblighi su trasparenza e moderazione

Il Digital Services Act (DSA) rappresenta una delle normative più ambiziose mai realizzate dall’Unione Europea per regolamentare lo spazio digitale, proteggere gli utenti e garantire la trasparenza delle piattaforme online. A pochi mesi dalla sua entrata in vigore, la Commissione EU ha pubblicato delle risultanze preliminari che mettono sotto Meta, con Facebook e Instagram, e TikTok. Le indagini iniziali indicano che entrambe le piattaforme avrebbero ostacolato l’accesso ai dati pubblici da parte dei ricercatori, una condizione che mina alla base una delle funzioni fondamentali del DSA, ovvero consentire un controllo indipendente sull’impatto sociale, psicologico e informativo dei social network.
Secondo la Commissione, l’architettura tecnica che Meta e TikTok adottano per consentire l’accesso ai dati appare deliberatamente complessa, frammentaria e poco affidabile. Gli strumenti messi a disposizione della comunità accademica impongono infatti procedure lunghe, filtri restrittivi, tempi di attesa dilatati e dataset incompleti. In questo modo, il diritto dei ricercatori a monitorare fenomeni rilevanti come la diffusione di contenuti illegali, la radicalizzazione online o l’esposizione dei minori a materiale nocivo viene compromesso. Nel quadro del DSA, questi ostacoli non costituiscono semplici inefficienze tecniche, ma vere e proprie violazioni di obblighi di trasparenza, con potenziali risvolti sanzionatori molto pesanti che prevedono fino al 6% del fatturato globale della piattaforma.
Le contestazioni della Commissione non si fermano però all’accesso ai dati. Meta è accusata anche di non garantire agli utenti meccanismi semplici e immediati per segnalare contenuti illegali. Facebook e Instagram, secondo le indagini preliminari, avrebbero adottato interfacce definite come dark patterns, ovvero scelte grafiche e procedurali pensate per scoraggiare l’utente dal completare una segnalazione, introducendo passaggi inutili, richieste ridondanti o opzioni ambigue. Questo approccio non solo riduce l’efficacia dei sistemi di segnalazione, ma mina direttamente le tutele previste dal diritto europeo in materia di sicurezza digitale, lotta alla disinformazione e protezione dei minori.
Il DSA prevede che le piattaforme reagiscano “tempestivamente ed efficacemente” alla presenza di contenuti illegali, eliminando ogni alibi di neutralità passiva e, nel caso una piattaforma venga informata di materiale illecito non intervenendo con urgenza, perde le immunità giuridiche tradizionalmente riconosciute agli intermediari digitali. In questo contesto, le difficoltà artificiali imposte agli utenti nel segnalare abusi vengono considerate strumenti potenzialmente lesivi dei diritti fondamentali dei cittadini europei.
Un altro fronte aperto riguarda il diritto degli utenti a contestare le decisioni di moderazione dei contenuti. Se un post viene rimosso o un profilo sospeso, il DSA garantisce la possibilità di presentare un ricorso chiaro, documentato e trasparente. Tuttavia, dalle verifiche della Commissione emerge che i sistemi adottati da Meta per la gestione degli appelli interni non permetterebbero agli utenti di allegare prove, contesto o spiegazioni adeguate.
Il processo di ricorso appare come una formalità priva di reale efficacia, che riduce il diritto di difesa digitale a un mero automatismo informatico. Questa impostazione si pone in netto contrasto con la filosofia del DSA, che punta a costruire un ecosistema digitale dove i cittadini non siano meri fruitori passivi, ma soggetti attivi con pieni diritti procedurali.
TikTok, dal canto suo, viene coinvolto in modo specifico sul fronte dell’accesso ai dati per la ricerca scientifica. La piattaforma social di proprietà cinese avrebbe infatti reso l’analisi dei contenuti pubblici estremamente difficoltosa. In un contesto in cui la disinformazione, le sfide virali pericolose e i contenuti potenzialmente illegali si diffondono con rapidità senza precedenti, rendere opache le dinamiche interne significa sottrarre al dibattito pubblico e alle autorità democratiche uno strumento essenziale di verifica.
Dal 29 ottobre 2025, entrerà in vigore un atto delegato che estenderà ancora di più le possibilità di accesso, includendo anche i dati non pubblici delle piattaforme considerate “very large online platforms”. Questo passaggio segnerà un ulteriore rafforzamento del controllo istituzionale sulla sfera digitale e aprirà nuovi scenari per l’individuazione di rischi sistemici legati alla salute mentale, alla manipolazione elettorale e alla sicurezza dei minori.
La Commissione ha ribadito che queste sono solo conclusioni preliminari, non un giudizio definitivo. Meta e TikTok potranno quindi rispondere alle contestazioni, presentare documenti e proporre misure correttive. Tuttavia, il messaggio politico chiaro è che l’Europa considera l’informazione digitale un’infrastruttura critica per la democrazia e non tollererà più l’autoregolamentazione opaca delle Big Tech. Come dichiarato da Henna Virkkunen, Vicepresidente UE per la Sovranità Tecnologica, “le piattaforme non possono più limitarsi a chiedere fiducia: devono guadagnarla attraverso trasparenza, responsabilità e rispetto dei diritti degli utenti”.
(Immagine in apertura: Shutterstock)

