I porno deepfake di Grok, anche con minori, fanno arrabbiare tutti i governi. Tranne uno.

Negli ultimi giorni, X è diventato l’epicentro di una crisi che fonde etica, tecnologia e diritto digitale. Migliaia di immagini di donne sono state manipolate con l’intelligenza artificiale del chatbot Grok di xAI (l’azienda IA fondata da Elon Musk), generando versioni false e sessualmente esplicite dei loro volti e corpi senza alcun consenso. Il fenomeno, che purtroppo ha visto implicati anche minori, ha coinvolto figure di ogni tipo tra attrici e modelle note, giornaliste, vittime di crimini e persino leader politici, trasformando un esperimento tecnologico in un caso mediatico e sociale di portata mondiale.
Un report pubblicato il 31 dicembre 2025 da Copyleaks ha tracciato le prime dimensioni del problema, svelando che in media un’immagine veniva pubblicata ogni minuto. Successive analisi hanno ridimensionato al rialzo il fenomeno, stimando un ritmo di 6.700 immagini all’ora nei giorni tra il 5 e il 6 gennaio. Una produzione incessante, alimentata da un sistema di generazione testuale‑visiva privo di filtri adeguati, che ha lasciato l’intero ecosistema di X (già fragile sul tema moderazione) in uno stato di emergenza.
Gli osservatori internazionali ritengono che la causa principale stia nell’assenza di guardrail tecnici durante il rilascio di Grok. Numerose voci, tra cui quella del Washington Post, hanno accusato Elon Musk di aver ignorato o addirittura ostacolato l’introduzione di limitazioni sui contenuti generabili. con il risultato del cosiddetto AI sexual abuse.
Anche sul fronte politico le cose si sono mosse molto rapidamente. L’Unione Europea ha ordinato a xAI di conservare tutti i documenti e le comunicazioni interne relativi a Grok fino alla fine del 2026. Una misura preliminare che precede spesso l’apertura di un’indagine vera e propria e, a rendere il gesto ancora più significativo, sono le rivelazioni della CNN, secondo cui Musk avrebbe esercitato una supervisione diretta sulle scelte di design del modello impedendo l’inserimento di barriere di sicurezza.
Sul versante operativo, non è chiaro se xAI abbia già modificato l’architettura di Grok. L’unico segno visibile per ora è la rimozione della sezione “Media” dall’account ufficiale del chatbot. In un messaggio pubblicato il 3 gennaio, l’account X Safety ha ribadito la condanna dell’uso dell’IA per generare contenuti pedopornografici, avvertendo che “chiunque utilizzi Grok per creare materiale illegale sarà trattato come se lo avesse caricato direttamente”. Musk stesso aveva espresso una posizione simile pochi giorni prima, ma senza affrontare il tema delle immagini manipolate.
In Italia, l’Autorità garante della protezione dei dati ha messo in guardia utenti e fornitori di strumenti IA sul rischio di generare immagini deepfake da contenuti reali senza il consenso delle persone ritratte. L’Autorità ha inoltre dichiarato di stare collaborando con la Commissione irlandese per la protezione dei dati e si è riservata il diritto di intraprendere ulteriori azioni.
I servizi che consentono agli utenti di creare e condividere contenuti da immagini o voci reali, compreso lo spogliare digitalmente le persone, “potrebbero costituire reati penali e gravi violazioni della privacy ai sensi del diritto dell’UE”, ha affermato l’Autorità di vigilanza, che ha esortato i fornitori a integrare nelle loro piattaforme misure di salvaguardia per prevenire abusi.
Nel Regno Unito, l’autorità indipendente Ofcom ha comunicato di essere in contatto con xAI e di voler avviare una valutazione preliminare di conformità. Il primo ministro Keir Starmer, intervistato dalla BBC, ha definito l’accaduto “disgustoso e inaccettabile”, aggiungendo che Ofcom gode del pieno supporto del governo per procedere contro i responsabili.
L’attacco più deciso è arrivato però dall’India. Dopo una denuncia formale di un parlamentare, il ministero dell’Elettronica e delle Tecnologie Informatiche (MeitY) ha imposto a X di fornire un rapporto dettagliato delle misure adottate, con una scadenza iniziale di 72 ore poi prorogata di due giorni. Il documento, consegnato il 7 gennaio, avrebbe descritto l’introduzione di nuove salvaguardie e regole di generazione dei contenuti, anche se i dettagli restano riservati. Se MeitY dovesse ritenere insufficienti le misure, X rischierebbe la revoca dello status di “safe harbor”, con conseguenze pesanti per le attività della piattaforma nel popolosissimo Paese asiatico.
Stupisce invece il silenzio (almeno a livello politico) degli USA, dove la questione non sembra aver suscitato le stesse reazioni dell’India e dei Paesi europei (anche la Svezia, per voce del suo Primo Ministro, ha condannato le immagini con toni molto duri).
Dietro la cronaca degli interventi istituzionali si intravede comunque una sfida più ampia, ovvero la difficoltà di regolamentare l’intelligenza artificiale in un contesto dove i modelli vengono rilasciati e aggiornati in modo decentralizzato, senza contare che le capacità di generazione visiva evolvono più rapidamente delle leggi che cercano di contenerle. Il caso Grok è già diventato un simbolo di questa frizione, essendo un sistema capace di creare migliaia di immagini potenzialmente illegali in pochi minuti, frutto di una strategia di sviluppo “open field” che lascia all’uso pubblico il compito di definire i confini dell’etica.
(Immagine in apertura: Shutterstock)

