Il confine tra sperimentazione tecnologica e responsabilità legale sta diventando sempre più sottile, con il “caso Grok” che rischia di trasformarsi in uno spartiacque per l’intero settore dell’IA generativa. Il primo e più eclatante caso è quello delle autorità francesi, che hanno alzato non poco il livello dello scontro con Elon Musk.

Ieri la polizia ha perquisito gli uffici di X a Parigi, mentre la procura ha convocato il miliardario per un’audizione nell’ambito di un’inchiesta che, da mesi, sta crescendo per portata e gravità. Alla base di tutto c’è il sospetto di abuso degli algoritmi e di possibile estrazione fraudolenta di dati, con implicazioni che toccano direttamente il modo in cui X influenza la circolazione dei contenuti in Europa.

L’indagine è partita circa un anno fa e ora si è estesa dopo nuove segnalazioni legate a Grok, il chatbot di xAI integrato nell’ecosistema di Musk. La procura francese ha infatti ampliato il fascicolo includendo anche ipotesi di reato legate alla detenzione e diffusione di immagini a carattere pedopornografico e alla violazione dei diritti di immagine attraverso deepfake sessualmente espliciti. Un passaggio che trasforma un dossier tecnico in un caso giudiziario potenzialmente esplosivo.

Musk e l’ex CEO di X Linda Yaccarino sono stati convocati per il 20 aprile, insieme ad altri dipendenti chiamati come testimoni. X respinge l’approccio della magistratura, sostenendo che la procura sta cercando di fare pressione sul management statunitense colpendo la sede francese e aggirando i canali previsti dai trattati internazionali. Musk, dal canto suo, parla apertamente di “attacco politico”.

La Spagna passa all’azione

Intanto, in Spagna il primo ministro Pedro Sánchez, intervenendo al World Governments Summit, ha definito i social media un luogo dove le leggi vengono ignorate, la disinformazione vale più della verità e una parte consistente degli utenti subisce odio e molestie.

Nel suo intervento, Sánchez ha citato esplicitamente la capacità di Grok di creare immagini sessualizzate come esempio della degenerazione delle piattaforme, inserendola in un quadro più ampio di algoritmi che distorcono il dibattito pubblico e trasformano dati e immagini delle persone in merce, a riprova (secondo Sanchez) che l’ecosistema digitale ha perso qualsiasi forma di controllo.

Sánchez ha poi puntato direttamente Musk, accusandolo di aver amplificato disinformazione su una recente decisione del governo spagnolo, relativa alla creazione di un percorso per ottenere permessi di residenza destinato a oltre 500.000 migranti irregolari. Da qui, come risposta politica, il divieto di accesso ai social per i minori di 16 anni, leggi che rendano i dirigenti delle piattaforme responsabili degli atti illegali commessi sui servizi che gestiscono e persino la criminalizzazione della manipolazione algoritmica e dell’amplificazione di contenuti illegali.

Un salto concettuale enorme, visto che non si discute più soltanto di moderazione o di trasparenza ma di responsabilità penale, di architetture di ranking e di design delle piattaforme come oggetto di intervento legislativo.

Sánchez ha anche promesso la creazione di uno strumento per rendere tracciabile l’origine dei contenuti d’odio, definiti “invisibili e non rintracciabili”, e ha dichiarato che le indagini della procura spagnola coinvolgeranno Grok, TikTok e Instagram. Musk, dal canto suo, ha reagito su X definendo Sánchez “tiranno”, “traditore” e “fascista totalitario”, confermando ancora una volta quanto la frizione tra governi e piattaforme sia ormai diventata un conflitto diretto, pubblico e personale.

X

Crediti: Shutterstock

Le mosse britanniche

L’ultimo caso riguarda il Regno Unito, dove l’Information Commissioner’s Office (ICO) ha avviato un’indagine formale su xAI dopo che il chatbot Grok avrebbe prodotto immagini sessuali raffiguranti persone reali, senza alcuna forma di consenso.

L’ICO aveva già inviato a xAI una comunicazione preliminare all’inizio di gennaio chiedendo chiarimenti. Un approccio tipico delle autorità privacy, che spesso tentano una prima interlocuzione prima di aprire formalmente un procedimento. Questa volta, però, il dossier non si è chiuso con una risposta informale o con un impegno volontario, tanto che ieri l’ICO ha alzato il livello e ha annunciato l’apertura di un’investigazione ufficiale.

Nella dichiarazione ufficiale, William Malcolm, executive director for regulatory risk and innovation dell’ICO, ha messo nero su bianco l’obiettivo dell’indagine, che vuole verificare se xAI e le entità collegate abbiano rispettato la normativa sulla protezione dei dati nella fase di sviluppo e distribuzione dei servizi Grok, con particolare attenzione alle misure di sicurezza adottate per tutelare i diritti delle persone. In altre parole, si parla dell’intero impianto di governance tra dataset, processi di addestramento, controlli, filtri, logiche di moderazione e audit interni.

Questo punto è cruciale, perché il problema non è solo “Grok ha generato immagini sessuali”, ma il fatto che l’IA, per arrivare a produrre qualcosa di credibile, deve appoggiarsi a una rappresentazione statistica di volti, corpi e identità. Quando la rappresentazione riguarda individui reali, la questione scivola immediatamente nel territorio della privacy e della protezione dei daticon implicazioni che in Europa sono tra le più severe al mondo.

Nello stesso giorno, è intervenuta anche Ofcom, il regolatore britannico delle comunicazioni, che ha dichiarato di continuare a pretendere risposte da xAI in merito ai rischi generati dal servizio. Il focus, in questo caso, non è sulla privacy, ma sulla pubblicazione e distribuzione di materiale pornografico e l’obbligo di adottare controlli di età altamente efficaci per impedire l’accesso ai minori. Ofcom non ha ancora confermato l’avvio di un’indagine, ma il fatto stesso che stia valutando la compliance di xAI colloca Grok dentro una cornice regolatoria molto più ampia rispetto alla semplice “IA sperimentale”.

(Immagine in apertura: Shutterstock)