Con motivazioni che ricordano molto quelle del Garante italiano per la protezione dei dati personali, la Federal Trade Commission (FTC), ovvero l’agenzia governativa degli Stati Uniti per la tutela dei consumatori, sta indagando su OpenAI per possibili violazioni della legge sulla protezione dei consumatori e ha chiesto all’azienda produttrice di ChatGPT un’ampia documentazione sulla gestione dei dati personali, sulla possibilità di fornire agli utenti informazioni inesatte e sui “rischi di danno ai consumatori, compreso il danno alla reputazione”.

La richiesta di investigazione di 20 pagine della FTC contiene richieste a OpenAI su come ottiene i dati che utilizza per addestrare i suoi modelli linguistici di grandi dimensioni, oltre a chiarimenti sulla capacità di ChatGPT di generare dichiarazioni su individui reali che sono false, fuorvianti o denigratorie. 

La richiesta di informazioni, che è considerata un tipo di citazione amministrativa, chiede anche la testimonianza di OpenAI su eventuali reclami ricevuti dal pubblico, elenchi di cause legali in cui è coinvolta e dettagli sulla fuga di dati che l’azienda ha rivelato nel marzo 2023.

Chiede inoltre sia di descrivere come OpenAI testa, modifica e manipola i suoi algoritmi, in particolare per produrre risposte diverse e in diverse lingue. sia di spiegare le misure adottate per affrontare i casi di “allucinazione”, un termine del settore che descrive i casi in cui un’IA genera informazioni false.

chatgpt bing

L’indagine della FTC è il primo e più chiaro esempio di una regolamentazione diretta dell’IA da parte del governo degli Stati Uniti, visto che i legislatori del Congresso faticano ancora a trovare un terreno comune per regolare un settore così importante e così in rapida evoluzione, in vista di un’iniziativa prevista in autunno per la stesura di una nuova legislazione sul settore. Gli sforzi degli Stati Uniti sono rimasti in gran parte indietro rispetto agli altri responsabili politici globali, mentre i legislatori dell’Unione Europea si stanno avviando con l’AI Act a finalizzare una legislazione storica che, tra le altre cose, applica diverse restrizioni agli scenari di utilizzo ad alto rischio.

La FTC, tra l’altro, ha già dichiarato che le aziende che utilizzano l’IA generativa saranno ritenute responsabili di qualsiasi pratica sleale e ingannevole legata a questa tecnologia. In qualità di massimo organo di vigilanza negli USA per la tutela dei consumatori, la FTC ha il potere di perseguire gli abusi della privacy, il marketing non veritiero e altri danni.

Il presidente della FTC, Lina Khan, ha sostenuto che l’attuale mandato del Congresso fornisce all’agenzia un’ampia autorità per perseguire gli usi abusivi dell’IA. “Sebbene questi strumenti siano nuovi, non sono esenti dalle regole esistenti e la FTC applicherà vigorosamente le leggi che siamo incaricati di amministrare, anche in questo nuovo mercato”, ha scritto Khan in un articolo del New York Times.

La stessa OpenAI ha parlato apertamente di alcuni limiti dei suoi prodotti, con dichiarazioni nemmeno troppo velate sulla possibilità che strumenti come GPT possano portare a discriminazioni su larga scala contro le minoranze o altri gruppi vulnerabili.