OpenAI ha pubblicato la prima bozza di una proposta di quadro, denominata Model Spec, che dovrebbe definire il modo in cui gli strumenti di intelligenza artificiale GPT-4 risponderanno in futuro. Al tempo stesso ha annunciato di essere al lavoro per trovare un modo di supportare la creazione di contenuti NSFW.

Questa sigla (acronimo di Not Safe For Work) è usata principalmente su siti, forum, blog e chat e serve a indicare URL o collegamenti a materiale sessualmente esplicito, volgare o potenzialmente offensivo, in modo che l’utente possa evitare di incapparvi inavvertitamente durante l’orario di lavoro, a scuola o in situazioni di privacy limitata.

Il Model Spec di OpenAI ha lo scopo di fornire ai ricercatori di machine learning e a chi si occupa di etichettatura dei dati delle raccomandazioni su come mettere a punto i modelli, utilizzando una tecnica chiamata reinforcement learning from human feedback (RLHF).

Secondo le linee guida, le applicazioni di assistente IA generativo “non dovrebbero servire contenuti NSFW”, ma al tempo stesso OpenAI sta prendendo in considerazione proprio il contrario. “Crediamo che gli sviluppatori e gli utenti debbano avere la flessibilità di utilizzare i nostri servizi come meglio credono, purché rispettino le nostre politiche di utilizzo”, si legge nel documento dell’azienda. “Stiamo valutando se sia possibile fornire in modo responsabile la possibilità di generare contenuti NSFW in contesti adatti all’età attraverso le API e ChatGPT”.

Questo non dovrebbe sorprendere, considerando che le politiche di utilizzo di OpenAI non vietano in realtà i contenuti per adulti. Se infatti per i suoi servizi come ChatGPT e API l’azienda vieta contenuti sessualmente espliciti o suggestivi per i minori e materiale illegale, i contenuti NSFW sono spesso legali.

OpenAI NSFW

Il web è stato NSFW praticamente fin dalla sua nascita e l’intelligenza artificiale ha seguito una traiettoria simile. Già nel 2016, prima dell’attuale mania dell’IA generativa, si trovavano classificatori di deep learning tarati per il porno e un anno dopo si passava a testi erotici generati dall’IA, mentre più recentemente i ricercatori hanno trovato materiale pedopornografico nel dataset LAION-5B, utilizzato per addestrare modelli di intelligenza artificiale come Stable Diffusion.

La questione di fondo è se i clienti paganti di OpenAI accetteranno servizi di IA che si oppongono a richieste “trasgressive”; dopotutto, oltre alle opzioni open source, altri servizi di intelligenza artificiale non si fanno scrupoli a trattare contenuti per adulti.

Rispondendo a The Register su come conciliare i contenuti NSFW con la sicurezza, un portavoce di OpenAI ha dichiarato che l’azienda non ha intenzione di creare pornografia generata dall’intelligenza artificiale, riferendosi a una categoria di contenuti molto più ristretta di quelli NSFW. “Abbiamo forti salvaguardie nei nostri prodotti per prevenire i deepfake, che sono inaccettabili, e diamo priorità alla protezione dei bambini. Crediamo anche nell’importanza di esplorare attentamente le conversazioni sulla sessualità in contesti adatti all’età”.

Alla domanda se questo significa che OpenAI impedirà ai clienti di creare pornografia generata dall’IA, la risposta del portavoce di OpenAI è stata:I clienti devono comunque attenersi alle nostre politiche di utilizzo”.