L’EU contro TikTok: il suo design genera dipendenza

Con una decisione che potrebbe diventare uno dei casi più emblematici dell’era Digital Services Act, la Commissione Europea ha compiuto una valutazione preliminare secondo cui TikTok avrebbe violato il regolamento europeo a causa del suo “design che crea dipendenza”. Un’accusa tecnica e circostanziata che punta direttamente a scelte di progettazione precise come lo scroll infinito, la riproduzione automatica dei contenuti, le notifiche push e un sistema di raccomandazione altamente personalizzato.
Per Bruxelles, TikTok non avrebbe trattato queste caratteristiche come fattori di rischio sistemico e non avrebbe nemmeno adottato misure sufficienti a contenerne gli effetti, soprattutto su utenti minorenni e su adulti vulnerabili. Il Digital Services Act, in questo senso, segna un cambio di paradigma importante perché entra nel merito di come un servizio viene costruito, quali comportamenti incentiva e quanto consapevolmente li spinge.
La parte più delicata dell’indagine riguarda la valutazione del rischio. Secondo la Commissione, TikTok non avrebbe svolto un’analisi adeguata sull’impatto potenziale delle sue funzionalità più coinvolgenti sulla salute mentale e fisica degli utenti. In altre parole, la piattaforma, per come è progettata, tende a “premiare” costantemente l’utente con nuovi stimoli, riducendo la frizione tra un contenuto e l’altro e spingendo verso un consumo prolungato, quasi automatico.
È un meccanismo che la Commissione descrive con il termine significativo di “autopilot mode”. L’utente, dopo una certa soglia di utilizzo, non sceglie più attivamente cosa guardare, ma viene trascinato in un flusso continuo. Bruxelles sostiene che esista letteratura consolidata che collega design di questo tipo a comportamenti compulsivi e a una riduzione dell’autocontrollo. In un contesto regolatorio come quello europeo, questo passaggio è cruciale perché sposta la discussione dal piano etico a quello probatorio parlando di un rischio identificabile, misurabile e dunque regolabile.
Nella ricostruzione della Commissione, TikTok avrebbe inoltre trascurato indicatori considerati rilevanti per identificare l’uso compulsivo. Tra questi, uno dei più sensibili è il tempo trascorso sulla piattaforma durante la notte da parte dei minorenni. È un dato che, in ambito clinico e psicologico, viene spesso considerato un segnale di allarme, perché intreccia consumo digitale, qualità del sonno, stress e regolazione emotiva.
Accanto a questo, vengono citati parametri più “freddi” ma altrettanto significativi come quante volte un utente apre l’app, con quale frequenza e con quale ricorrenza nell’arco della giornata. Sono metriche che qualsiasi piattaforma monitora in modo ossessivo per ragioni di engagement e il fatto che, secondo Bruxelles, TikTok non le abbia valorizzate nella sua analisi di rischio è una critica che pesa.
Dove la questione diventa ancora più concreta è sul fronte delle misure di mitigazione. La Commissione sostiene che TikTok non abbia implementato interventi ragionevoli, proporzionati ed efficaci per ridurre i rischi derivanti dal design “addictive”. Un esempio particolarmente rilevante riguarda i tool di screentime. Se la funzione si limita a un promemoria che l’utente può chiudere con un tap, la frizione introdotta è minima.
Lo stesso ragionamento viene applicato ai controlli parentali. Se per attivarli servono tempo, competenze e un livello di attenzione costante da parte dei genitori, la loro efficacia reale su larga scala si riduce drasticamente. È un punto pragmatico, quasi ingegneristico, dal momento che una misura è utile solo se è adottabile, scalabile e resistente al comportamento spontaneo degli utenti.
A questo livello, Bruxelles sembra dire apertamente che TikTok dovrebbe cambiare la progettazione di base del servizio, facendo inoltre capire che non basteranno correzioni marginali o funzioni “di facciata”. Tra le ipotesi citate c’è la disattivazione progressiva di alcune funzioni chiave come lo scroll infinito e l’introduzione di pause realmente efficaci, soprattutto durante la notte.
C’è poi il nodo del recommender system, che rappresenta il vero motore del modello TikTok. Se lo scroll infinito è il nastro trasportatore, l’algoritmo è la macchina che decide cosa passa sul nastro. La Commissione lascia intendere che l’iper-personalizzazione sia parte integrante del rischio perché amplifica il cosiddetto “rabbit hole effect”, per il quale l’utente viene portato in percorsi di contenuti sempre più specifici, più aderenti alle sue vulnerabilità o ai suoi interessi, con una capacità di trattenimento che può diventare problematica. È un tema che tocca anche l’educazione digitale e la pluralità informativa, ma qui viene incorniciato soprattutto come rischio di dipendenza e compulsione.
Dal punto di vista procedurale, va ricordato che si tratta di una valutazione preliminare. TikTok potrà quindi esercitare il diritto di difesa, consultare gli atti dell’indagine e rispondere per iscritto. Parallelamente, verrà consultato l’European Board for Digital Services, l’organismo che coordina l’applicazione del DSA a livello europeo. Tuttavia, il segnale politico e industriale che emerge da questa vicenda è che l’Europa intende usare il DSA per intervenire anche sul cuore dei modelli di engagement.
Se le conclusioni della Commissione venissero confermate, si arriverebbe a una decisione di non conformità. In quel caso, la sanzione potrebbe arrivare fino al 6% del fatturato annuo mondiale della piattaforma, con criteri legati a natura, gravità, recidiva e durata dell’infrazione. È una soglia che, per un’azienda delle dimensioni di TikTok, può diventare un costo industriale reale e, soprattutto, un precedente normativo.
(Immagine in apertura: Shutterstock)

