La condanna di Meta e Google fa scricchiolare una linea di difesa che è stata fondamentale per il web

In meno di 48 ore, due giurie americane hanno emesso verdetti che potrebbero cambiare in modo permanente il rapporto tra le grandi piattaforme digitali e la legge. A Los Angeles, i giurati hanno ritenuto Meta e Google responsabili della depressione e dei pensieri suicidi di una donna sviluppatisi dopo anni di dipendenza da Instagram e YouTube in età adolescenziale, condannando le due aziende a risarcire complessivamente 6 milioni di dollari.
Poche ore prima in New Mexico, un’altra giuria aveva ordinato a Meta di pagare 375 milioni di dollari per aver fuorviato gli utenti sulla sicurezza dei propri prodotti per i minori e per aver consentito lo sfruttamento sessuale di bambini sulle sue piattaforme.
Sono i primi due processi a giungere a verdetto in un’ondata di cause legali che ha già coinvolto migliaia di famiglie americane. E il loro significato travalica di gran lunga i singoli importi risarcitori.
L’ostacolo che nessuno riusciva a superare
Per capire perché questi verdetti abbiano scosso il settore tech, bisogna partire dalla Section 230 del Communications Decency Act, una legge federale del 1996 che ha storicamente protetto le piattaforme online dalla responsabilità civile per i contenuti generati dagli utenti. Questa norma è stata per decenni lo scudo legale più efficace a disposizione di Meta, Google, Snap e TikTok, con ogni tentativo di citarle in giudizio per i danni causati dai contenuti presenti sulle loro piattaforme che si infrangeva sistematicamente contro questa protezione.
Questo perché la legge stabilisce due principi fondamentali:
- Le piattaforme online non sono considerate “editori” dei contenuti prodotti dai loro utenti, così come un fornitore telefonico non è responsabile di ciò che si dice in una chiamata
- Le piattaforme possono moderare liberamente i contenuti (rimuovere, filtrare, limitare) senza perdere questa immunità
In entrambi i casi appena conclusi, i legali dei querelanti hanno scelto una strada diversa. Invece di attaccare i contenuti, hanno puntato il dito sulle decisioni di design delle piattaforme, soprattutto per quanto riguarda scelte architetturali e algoritmiche. Algoritmi progettati per massimizzare il tempo di utilizzo, sistemi di raccomandazione che alimentano loop compulsivi, notifiche pensate per generare dipendenza sono scelte ingegneristiche (e non contenutistiche) alle quali la Section 230 non offre protezione.
I giudici di entrambi i procedimenti hanno così respinto le richieste di Meta e Google di archiviare i casi in base alla protezione della Section 230, confermando che la distinzione tra responsabilità per i contenuti e responsabilità per il design del prodotto è legalmente sostenibile. È una distinzione che Gregory Dickinson, professore alla University of Nebraska College of Law, ha descritto come una tendenza ormai consolidata nei tribunali di primo grado: “I tribunali stanno sempre più cercando di distinguere i claim sulla funzionalità della piattaforma dai claim che imporrebbero responsabilità per i contenuti di terze parti.”
La risposta delle aziende e la battaglia d’appello
Meta e Google hanno già annunciato l’intenzione di appellare entrambi i verdetti. “Rispettiamo il verdetto ma non siamo d’accordo e faremo ricorso”, ha dichiarato a Reuters un portavoce di Meta, ribadendo l’impegno dell’azienda nella protezione dei giovani utenti.
Il problema (e qui risiede la portata storica di questa vicenda) è che finora nessun tribunale d’appello si è mai espresso sulla questione se le scelte di design delle piattaforme siano o meno coperte dalla Section 230. I tribunali di primo grado hanno risposto in modo abbastanza uniforme che non lo sono, ma sono le corti d’appello a creare precedenti vincolanti per tutti gli altri tribunali. Gli appelli nei due casi appena conclusi verranno esaminati prima dai tribunali d’appello statali, con la possibilità concreta che la questione arrivi fino alla Corte Suprema degli Stati Uniti.
L’intera internet sotto processo
La posta in gioco supera in realtà il perimetro (seppur vastissimo) dei social media. Eric Goldman, co-direttore dell’High Tech Law Institute della Santa Clara University, ha sintetizzato il problema con una frase destinata a diventare una citazione ricorrente nel dibattito pubblico: “Penso che sia internet ad essere sotto processo, non i social media. Se queste teorie funzionano, verranno applicate ovunque.”
Non è un’iperbole. Oltre 130 cause pendono già in tribunale federale contro Roblox, la popolare piattaforma di gioco online accusata di non aver protetto i giovani utenti dallo sfruttamento sessuale. Se la dottrina della responsabilità per il design si consolida in appello, potrebbe investire qualsiasi piattaforma digitale che ospiti contenuti accessibili ai minori.
La Corte Suprema ha già avuto l’occasione di pronunciarsi sulla Section 230 tre anni fa in un caso che coinvolgeva YouTube, scegliendo però di non affrontare il merito. Nel 2024, ha rifiutato di riaprire un caso contro Snap, ma due giudici conservatori (Clarence Thomas e Neil Gorsuch) hanno firmato un’opinione dissenziente durissima, definendo la Section 230 un “jolly per uscire di prigione” usato in modo abusivo dalle piattaforme.
(Immagine in apertura: Shutterstock)


