OpenAI ha annunciato il rilascio di GPT-5.1, una nuova evoluzione del suo modello IA di punta che promette di essere più “calda”, più naturale nelle conversazioni e più capace di adattarsi al tono desiderato dall’utente. L’azienda parla di un’intelligenza artificiale più intelligente e più piacevole da usare, ma il debutto del modello ha già sollevato interrogativi sulle implicazioni etiche di un’IA che si presenta come empatica, specialmente in contesti emotivamente delicati.

Il lancio include le varianti GPT-5.1 Instant e GPT-5.1 Thinking. La prima è descritta come “più calda, più intelligente e migliore nel seguire le istruzioni”, mentre la seconda punta a un “ragionamento avanzato più facile da comprendere e più persistente nei compiti complessi”. Entrambe le versioni sono disponibili solo per gli abbonati a pagamento, mentre gli utenti gratuiti continueranno per ora a utilizzare GPT-5, rilasciato ad agosto e aggiornato in ottobre.

OpenAI spiega che l’obiettivo è rendere le interazioni più naturali e personalizzabili. “Abbiamo ascoltato chiaramente gli utenti: una grande IA non deve solo essere intelligente, ma anche piacevole da usare”, ha dichiarato l’azienda. Per questo, GPT-5.1 introduce controlli più intuitivi per modulare il tono delle risposte e adattarlo al contesto, riconoscendo che le preferenze stilistiche possono variare da persona a persona e da conversazione a conversazione.

Personalità rinnovate e nuove sfumature emotive

gpt-5.1

Con GPT-5, introdotto ad agosto, OpenAI aveva lanciato quattro impostazioni di personalità: Cynical, Robot, Listener e Nerd. Ora, con GPT-5.1, questi profili vengono rinominati e ampliati: Robot diventa Efficient, Listener si trasforma in Friendly, Cynical si riduce a Cynic, mentre Nerd resta invariato. A questi si aggiungono le tre nuove personalità Professional, Candid e Quirky, pensate per rispondere a esigenze comunicative diverse.

Tuttavia, la maggiore “umanità” del modello non è priva di conseguenze. L’uso di un linguaggio più empatico e suggestivo, capace di generare una sensazione di ascolto e comprensione, riaccende i dibattiti sulla dipendenza emotiva dagli assistenti IA. OpenAI ha già affrontato accuse legali, tanto che in California è finita in tribunale dopo che il suo chatbot sarebbe stato coinvolto indirettamente nel suicidio di un adolescente. Altri quattro casi simili sono stati depositati di recente, segno che il tema dell’impatto psicologico delle IA conversazionali è tutt’altro che marginale.

Empatia simulata o illusione di umanità?

Un esempio fornito dalla stessa OpenAI mostra chiaramente il cambio di tono. Alla frase “Mi sento stressato e avrei bisogno di qualche consiglio per rilassarmi”, GPT-5 rispondeva con un elenco neutro di suggerimenti pratici. GPT-5.1, invece, apre con un tono confidenziale e rassicurante, come riportato nell’annuncio di OpenAI: “Ti capisco Ron ed è del tutto normale, soprattutto con tutto quello che stai affrontando ultimamente. Ecco alcuni modi per rilassarti…”.

Un linguaggio di questo tipo, più emotivo e personale, può sembrare più “umano”, ma rischia di confondere la percezione dell’interlocutore. Come osservano diversi analisti, parlare di “calore” o “empatia” in riferimento a un modello di apprendimento automatico è fuorviante, dal momento che un’IA non prova emozioni ma genera sequenze di parole statisticamente coerenti con un contesto emotivo.

screenshot-openai.com-2025.11.13-11_01_05

In ottobre, OpenAI ha ammesso di aver individuato segnali di crisi mentale in una piccola ma significativa parte delle interazioni con ChatGPT. Circa lo 0,07% degli utenti settimanali e lo 0,01% dei messaggi mostrerebbero infatti indizi di situazioni legate a psicosi o mania. Considerando una base stimata di 800 milioni di utenti attivi settimanali, si parla di circa 560.000 persone potenzialmente vulnerabili. L’azienda ha dichiarato di voler migliorare i meccanismi di riconoscimento e intervento in questi casi, ma la questione resta delicata e ci si chiede quanto deve un chatbot “comprendere” l’emotività umana senza sostituirsi a un supporto reale.

Prestazioni, regressioni e “ragionamento adattivo”

Sul fronte tecnico, GPT-5.1 mostra luci e ombre. Secondo i benchmark interni pubblicati da OpenAI, il nuovo modello registra regressioni leggere rispetto a GPT-5 in categorie sensibili come contenuti sessuali, linguaggio d’odio e messaggi potenzialmente offensivi. “Stiamo lavorando per migliorare ulteriormente queste aree”, si legge nella scheda tecnica.

La versione Instant, tuttavia, si comporta meglio rispetto alla primissima iterazione di GPT-5 di agosto ma peggio dell’aggiornamento di ottobre in termini di contenuti violenti o legati alla salute mentale. È un andamento altalenante, tipico dei modelli linguistici in continua ottimizzazione, dove anche piccoli cambiamenti possono alterare il bilanciamento tra sicurezza, creatività e realismo.

In termini di ragionamento e problem solving, OpenAI dichiara invece progressi significativi. Grazie a una nuova funzione di adaptive reasoning, GPT-5.1 sarebbe in grado di capire meglio quando entrare in una “modalità di riflessione” più profonda, migliorando i risultati nei test matematici (AIME 2025) e di programmazione (Codeforces). Il modello Thinking, in particolare, è progettato per adattare la durata del proprio processo cognitivo alla complessità della domanda, con risposte più rapide per i quesiti semplici e analisi più lunghe per quelli complessi.

(Immagine in apertura: Shutterstock)