L’Europa ha un piano d’azione contro il cyber bullismo. Molti stati verso una limitazione d’età per i social

La Commissione Europea ha deciso di trattare il cyber bullismo come un problema di salute pubblica. L’Action Plan Against Cyberbullying nasce infatti con l’obiettivo di proteggere bambini e adolescenti online nell’Unione Europea, riducendo l’impatto psicologico di molestie, umiliazioni, minacce e campagne di odio che oggi possono esplodere in pochi minuti, restare in rete per anni e raggiungere un pubblico potenzialmente illimitato.
Secondo gli ultimi dati della Commissione, circa un ragazzo su sei tra 11 e 15 anni dichiara di aver subito cyber bullismo, mentre uno su otto ammette di averlo praticato. Un Eurobarometro recente mostra che oltre il 90% dei cittadini europei considera urgente un intervento pubblico su salute mentale, molestie online e limitazione dei contenuti non adatti per età.
La struttura del piano è tecnica e, per certi versi, “infrastrutturale”, provando a costruire strumenti comuni, un linguaggio condiviso tra Stati membri e una catena di intervento più rapida, soprattutto quando la vittima è minorenne.
Il punto più immediato è la creazione di un’app europea pensata per semplificare la segnalazione e, soprattutto, l’accesso al supporto. L’idea è che chi subisce cyberbullismo debba avere un canale chiaro, facile da usare e compatibile con le abitudini digitali dei più giovani. L’app, collegata a helpline nazionali, servirà anche a conservare in modo sicuro prove e materiali, rendendo più semplice documentare episodi ripetuti e inviare evidenze senza esporsi ulteriormente. La Commissione realizzerà inoltre un blueprint comune, che poi gli Stati membri potranno adattare, tradurre e integrare con i servizi locali già attivi.
Accanto allo strumento pratico, emerge l’armonizzazione europea. Oggi il cyber bullismo viene affrontato con approcci diversi a seconda del Paese, con definizioni, metriche e sistemi di raccolta dati non sempre comparabili. Il nuovo piano europeo chiede agli Stati membri di sviluppare strategie nazionali complete, basate su una definizione condivisa del fenomeno e su dati che possano essere confrontati. È un passaggio decisivo, visto che senza numeri compatibili la politica digitale resta reattiva e frammentata, mentre il cyberbullismo, per natura, non rispetta confini.
L’Action Plan si innesta su un ecosistema normativo già esistente e mira a rafforzarlo dove serve. Il Digital Services Act viene richiamato come perno per obbligare le piattaforme a garantire privacy, sicurezza e protezione dei minori, con meccanismi di segnalazione e strumenti di blocco e silenziamento realmente accessibili. Nel frattempo, le linee guida sui “trusted flaggers” dovranno chiarire ruoli e responsabilità di chi segnala contenuti illegali, includendo anche forme di cyber bullismo che superano la soglia della semplice tossicità e diventano illecito.
Sul fronte audiovisivo, la revisione dell’Audiovisual Media Services Directive rappresenta l’occasione per intervenire sulle piattaforme video, dove il bullismo assume spesso la forma di contenuti umilianti, remix, reupload e attacchi organizzati. Parallelamente, il piano collega il tema al nuovo AI Act, evidenziando due aspetti critici:
- Le pratiche di IA vietate quando manipolano o danneggiano le persone
- Gòli obblighi di trasparenza su contenuti generati artificialmente inclusa la marcatura dei deepfake, che possono diventare strumenti di ricatto e delegittimazione sociale
La prevenzione, però, resta la parte più ambiziosa. La Commissione punta infatti a spostare il baricentro sulla cultura digitale, chiedendo un aggiornamento delle linee guida per gli educatori sulla digital literacy e investendo su risorse e formazione per le scuole tramite i Safer Internet Centres e la piattaforma Better Internet for Kids. In questo caso, l’obiettivo è insegnare a riconoscere dinamiche di abuso, meccanismi di escalation, pressioni di gruppo e vulnerabilità emotive tipiche dell’età adolescenziale.
In parallelo, Bruxelles sta lavorando a iniziative complementari come una verifica dell’età “privacy-preserving”, il futuro Digital Fairness Act, un panel di esperti per guidare le politiche sui minori online e un’indagine sull’impatto dei social sulla salute mentale.
E a proposito di età, sono sempre di più i Paesi europei pronti ad avviare iniziative legislative per regolamentare l’uso delle piattaforme social da parte dei minorenni. In Francia, Camera bassa del Parlamento francese ha approvato recentemente un disegno di legge che vieta l’accesso ai social media ai minori di 15 anni, mentre in Germania i minori tra 13 e 16 anni possono utilizzare i social network solo con consenso parentale (dai 16 anni possono invece iscriversi autonomamente).
Il Regno Unito ha già in vigore l’Online Safety Act, che impone alle piattaforme di rimuovere contenuti illegali e proteggere i minori con sanzioni fino a 18 milioni di sterline. A gennaio 2026, il governo ha lanciato una consultazione pubblica su un possibile divieto per gli under 16, esplorando anche sistemi più stringenti di verifica dell’età. La Camera dei Lord intanto ha già votato a favore di un divieto per i minori di 16 anni, ma la proposta deve ancora passare alla Camera dei Comuni.
In Italia, infine, l’età minima per iscriversi autonomamente ai social network è fissata a 14 anni, con obbligo di consenso parentale per chi non ha raggiunto tale età. Il dibattito nel nostro Paese si concentra inoltre sul fatto che le regole esistenti sulla privacy non vengono applicate efficacemente.

