OpenAI si trova a navigare acque sempre più agitate dopo il lancio dell’applicazione di IA generativa Sora 2, con l’entusiasmo iniziale per la generazione video tramite IA che si è subito scontrato con questioni di copyright, deepfake e abusi dei contenuti. La società guidata da Sam Altman ha dovuto reagire tempestivamente alle controversie emerse già nei primi giorni di disponibilità dell’app, che ha raggiunto la posizione di applicazione gratuita più scaricata negli Stati Uniti per iOS.

La prima problematica emersa riguarda la gestione dei diritti d’autore, dopo che centinaia di video hanno iniziato a circolare raffigurando personaggi di film e serie animate senza alcuna autorizzazione. La policy iniziale di OpenAI prevedeva che i titolari dei diritti dovessero esplicitamente vietare l’uso dei loro personaggi attraverso una modalità “opt out”, lasciando di fatto campo libero alla generazione di contenuti protetti da copyright fino a eventuale richiesta contraria. Una strategia che si è però rivelata insostenibile di fronte alla massiccia produzione di video non autorizzati.

Parallelamente, OpenAI ha introdotto un modello di revenue sharing per incentivare i titolari di copyright a concedere l’utilizzo dei loro personaggi. Il meccanismo prevede la condivisione di una percentuale dei ricavi derivanti dalla generazione di video che utilizzano contenuti protetti, sebbene Altman abbia specificato che la soluzione definitiva verrà definita attraverso vari tentativi sperimentali.

OpenAI Sora 2

Tuttavia, le problematiche di Sora 2 vanno ben oltre le questioni di copyright, estendendosi in territori più inquietanti legati ai deepfake e alla manipolazione di contenuti. Il feed “For You” dell’applicazione si è trasformato in un vero e proprio catalogo di contenuti disturbanti, dove Altman stesso è diventato involontario protagonista di scenari sempre più assurdi. La funzione cameo, che doveva rappresentare una caratteristica innovativa per la personalizzazione dei video, si è così rivelata un’arma a doppio taglio quando Altman ha reso pubblico il proprio profilo biometrico.

La tecnologia alla base di Sora 2 dimostra infatti capacità impressionanti nel rispettare le leggi fisiche e rendere credibili anche le scene più surreali, creando deepfake di qualità tale da risultare convincenti anche a uno sguardo attento. Gli utenti hanno rapidamente testato i limiti del sistema, generando contenuti che coinvolgono personaggi di Nintendo, South Park e SpongeBob in contesti spesso inappropriati per un pubblico generale.

Una dimensione particolarmente preoccupante emerge dalla capacità di Sora 2 di personalizzare i contenuti utilizzando dati apparentemente innocui come l’indirizzo IP e la cronologia di utilizzo di ChatGPT. Test condotti da giornalisti hanno rivelato come il sistema riesca a generare deepfake sorprendentemente accurati basandosi su informazioni di cui l’utente non era consapevole di aver fornito, inclusi riferimenti geografici specifici e preferenze personali dedotte dal comportamento online.

OpenAI sostiene di aver implementato misure di sicurezza che includono controlli parentali, limitazioni sui cameo e messaggi che invitano gli utenti a riflettere sul proprio utilizzo della piattaforma. La facilità con cui è possibile creare deepfake realistici di figure storiche o contemporanee solleva però interrogativi più ampi sulla responsabilità delle piattaforme tecnologiche nel prevenire abusi, anche perché questa capacità di manipolare volti e contesti con tale precisione arriva in un momento già critico per la diffusione di contenuti falsificati sui social media, amplificando potenzialmente problemi di disinformazione già esistenti.