Da alcuni giorni (più precisamente, dal 6 luglio) l’accesso al modello GPT-4 di OpenAI è consentito, tramite API, a tutti gli sviluppatori con uno storico di pagamenti regolare. Ricordiamo che a marzo OpenAI aveva annunciato il debutto di GPT-4 mediante API solo a un numero limitato di sviluppatori che si erano già iscritti a un’apposita lista di attesa (oltre che agli utenti finali tramite il nuovo Bing e a quelli di ChatGPT Plus).

“Milioni di sviluppatori hanno richiesto l’accesso all’API GPT-4 da marzo e la gamma di prodotti innovativi che sfruttano GPT-4 cresce ogni giorno”, si legge nel comunicato ufficiale di OpenAI. “Prevediamo un futuro in cui i modelli basati sulle chat potranno supportare qualsiasi caso d’uso”. “

GPT-4 è in grado di generare testo (compreso il codice) e di accettare input di immagini e testo (GPT-3.5 accettava solo testo) e ha prestazioni di “livello umano” in vari benchmark professionali e accademici. Come i precedenti modelli GPT di OpenAI, GPT-4 è stato addestrato utilizzando dati disponibili pubblicamente, compresi quelli provenienti da pagine web pubbliche, oltre a dati concessi in licenza da OpenAI.

La capacità di comprendere le immagini non però è ancora disponibile per tutti i clienti OpenAI. L’azienda la sta infatti testando con un solo partner (Be My Eyes) e non ha indicato quando la aprirà a una base di clienti più ampia. Vale la pena notare che, come anche i migliori modelli di IA generativa di oggi, GPT-4 non è perfetto. Soffre ancora di “allucinazioni”, commette errori di ragionamento e non impara dalla sua esperienza, fallendo in problemi difficili come l’introduzione di vulnerabilità di sicurezza nel codice che genera.

chatgpt-plugin

In futuro, OpenAI ha dichiarato che consentirà agli sviluppatori di perfezionare GPT-4 e GPT-3.5 Turbo, uno dei suoi modelli di generazione di testo più recenti ma meno capaci (e uno dei modelli originali che alimentano ChatGPT), con i propri dati, come è già possibile fare da tempo con molti altri modelli di generazione di testo di OpenAI. Secondo OpenAI, questa funzionalità dovrebbe arrivare nel corso dell’anno.

OpenAI ha anche dichiarato che sta rendendo disponibili le API DALL-E 2 e Whisper: DALL-E 2 è il modello di OpenAI per la generazione di immagini, mentre Whisper si riferisce al modello speech-to-text dell’azienda. Inoltre, a partire dal 4 gennaio 2024, alcuni vecchi modelli OpenAI (in particolare GPT-3 e i suoi derivati) non saranno più disponibili e saranno sostituiti da nuovi modelli “base GPT-3” che si presume siano più efficienti dal punto di vista computazionale.

Gli sviluppatori che utilizzano i vecchi modelli dovranno aggiornare manualmente le loro integrazioni entro il 4 gennaio, mentre coloro che desiderano continuare a utilizzare i vecchi modelli oltre il 4 gennaio dovranno mettere a punto le sostituzioni in base ai nuovi modelli GPT-3 di base. “Forniremo supporto agli utenti che hanno precedentemente messo a punto i modelli per rendere questa transizione il più agevole possibile”, ha scritto OpenAI. “Nelle prossime settimane contatteremo gli sviluppatori che hanno utilizzato di recente questi vecchi modelli e forniremo maggiori informazioni quando i nuovi modelli di completamento saranno pronti per i primi test”.