Un recente studio pubblicato su Nature Human Behaviour ha sollevato importanti preoccupazioni sull’uso dei modelli linguistici di grandi dimensioni (LLM) nelle conversazioni online, evidenziando la loro sorprendente capacità persuasiva soprattutto quando hanno accesso a informazioni personali sull’interlocutore. Lo studio, guidato da Francesco Salvi del Politecnico Federale di Losanna (EPFL), ha coinvolto 900 partecipanti statunitensi, ciascuno dei quali è stato coinvolto in un dibattito con un altro essere umano o con il modello GPT-4 di OpenAI.

Il tema dei dibattiti era controverso e di interesse pubblico (ad esempio, il divieto dell’uso di combustibili fossili) e i partecipanti erano stati precedentemente classificati in base alla forza della loro opinione su tali argomenti. In alcune coppie, ai dibattenti (sia umani che LLM) venivano fornite informazioni personali dell’interlocutore, come età, genere, etnia, livello di istruzione, occupazione e affiliazione politica, con l’obiettivo di verificare se la personalizzazione del messaggio potesse influire sull’efficacia della persuasione.

I risultati sono stati netti: GPT-4 è risultato il 64,4% più persuasivo rispetto agli esseri umani quando entrambi avevano accesso a dati personali sul proprio avversario. Tuttavia, il vantaggio scompariva quando nessuna delle due parti possedeva tali informazioni. Questo evidenzia un rischio molto concreto, ovvero che la combinazione tra IA generativa e microtargeting può amplificare sensibilmente la capacità di persuasione, superando quella degli esseri umani in contesti strutturati.

Gli autori sottolineano che lo scenario sperimentale era comunque controllato e strutturato e che quindi non riflette perfettamente le dinamiche più fluide dei dibattiti reali. Tuttavia, l’efficacia dimostrata da GPT-4 con un accesso minimo ai dati personali è già di per sé un campanello d’allarme. Gli effetti potrebbero essere infatti ancora più forti se si utilizzassero tecniche di profilazione psicologica più avanzate o una maggiore personalizzazione attraverso l’ingegneria dei prompt o il fine-tuning dei modelli.

Il timore principale riguarda l’uso potenzialmente malevolo di questi strumenti. Attori ostili potrebbero impiegare chatbot persuasivi per campagne di disinformazione su larga scala, sfruttando le tracce digitali lasciate dagli utenti sui social e su altre piattaforme per creare messaggi su misura, difficili da riconoscere come manipolatori. Gli LLM potrebbero quindi diventare uno strumento estremamente efficace per influenzare opinioni politiche, sociali o culturali.

llm

Crediti: Shutterstock

Un’altra dimostrazione di ciò arriva da un gruppo di ricercatori dell’Università di Zurigo, finito al centro di una bufera etica per aver condotto, senza autorizzazione, un esperimento su larga scala nel popolare subreddit r/changemyview, utilizzando contenuti generati da intelligenza artificiale. L’obiettivo dichiarato dello studio era valutare l’efficacia persuasiva degli LLM nel cambiare l’opinione degli utenti in discussioni reali online. Ma il modo in cui è stato realizzato ha sollevato critiche accese, soprattutto perché ha violato apertamente le regole della community e i principi basilari della ricerca etica.

Secondo quanto riportato nel preprint del loro studio, intitolato Can AI Change Your View?, i ricercatori hanno creato più account semi-automatizzati gestiti da LLM, personalizzando alcuni messaggi in base a caratteristiche demografiche (età, genere, etnia, orientamento politico) degli utenti umani. I messaggi venivano generati con prompt pensati per simulare un utente esperto in retorica e dibattito, pronto a sfidare le opinioni altrui in modo convincente e civile.

Nonostante l’alta posta in gioco (comprendere se e come l’IA possa influenzare il pensiero umano), gli autori non hanno mai informato né chiesto il consenso ai moderatori di r/changemyview contravvenendo così alle linee guida della piattaforma, che vietano esplicitamente l’uso non dichiarato di contenuti generati da IA. Solo mesi dopo, a marzo 2025, i moderatori sono venuti a conoscenza dell’esperimento, ricevendo un messaggio in cui i ricercatori ammettevano l’utilizzo di LLM, dichiaravano di aver supervisionato manualmente ogni messaggio per evitare contenuti dannosi e sostenevano che, vista l’importanza della ricerca, era stato “necessario” infrangere le regole.

La reazione dei moderatori è stata netta: hanno denunciato il comportamento all’Università di Zurigo e chiesto il blocco della pubblicazione dello studio. Hanno inoltre evidenziato casi gravi nei quali i bot, fingendosi umani, hanno simulato ruoli delicati come vittime di violenza, consulenti per traumi, membri di minoranze etniche o religiose, sollevando interrogativi inquietanti sulla manipolazione e sulla verosimiglianza dei contenuti IA.

La risposta dell’Università ha ulteriormente inasprito il dibattito. Pur riconoscendo la violazione delle regole del forum, gli autori dello studio hanno ritenuto che i benefici cognitivi e scientifici superassero i rischi, definiti “minimi” e che quindi la pubblicazione fosse giustificata. Ma numerosi esperti, come la professoressa Casey Fiesler dell’Università del Colorado Boulder, hanno espresso forti riserve. Secondo Fiesler, infatti, si tratta di una delle più gravi violazioni etiche mai viste in ambito accademico, perché ha implicato l’inganno sistematico di persone reali senza alcun tipo di consenso.