Negli ultimi mesi l’Autorità Garante della Concorrenza e del Mercato (AGCM) ha esteso l’azione di vigilanza sulle pratiche commerciali scorrette ai sistemi di intelligenza artificiale generativa. In particolare, si è occupata del rischio delle cosiddette “allucinazioni”, ossia la produzione di contenuti inesatti o fuorvianti. A questo riguardo l’Autorità ha condotto tre istruttorie nei confronti di DeepSeek, Mistral AI e Scaleup, che offre un servizio “chatbot cross-platform” denominato NOVA AI.

Le tre istruttorie si sono concluse con un accoglimento degli impegni, senza accertamento di infrazione ai sensi dell’art. 27, comma 7, del Codice del consumo. Le società hanno assunto specifici obblighi per rafforzare la trasparenza informativa sul rischio di allucinazioni dei sistemi offerti, intervenendo sui canali di fruizione dei servizi (siti internet e app) e nelle varie fasi del processo decisionale che precede l’acquisto o la registrazione. Sono stati quindi introdotti disclaimer permanenti nelle interfacce di utilizzo sotto le chat che avvertono, in lingua italiana, della presenza delle allucinazioni, anche con hyperlink dedicati.

AGCM allucinazioni

Crediti: Shutterstock

Inoltre, è stata integrata e arricchita l’informativa precontrattuale con esplicite avvertenze sui limiti di affidabilità dei contenuti generati e sulla necessità di verificarli. Nel procedimento relativo a DeepSeek, la società ha anche previsto un investimento tecnologico per mitigare il fenomeno delle allucinazioni, anche se è consapevole che nell’attuale stato tecnologico non sia possibile eliminarle completamente.

Esattamente quello che scrivevamo già nel 2023, quando sottolineavamo che, vista tale impossibilità, l’unica cosa da fare fosse avvisare gli utenti, specificando con una formula un po’ nello stile di un racconto di finzione che “ogni riferimento a fatti realmente accaduti o persone esistenti è (probabilmente) casuale”. Questo andrebbe fatto in ogni sessione, assieme alla precisazione che l’utente si assume ogni responsabilità di una mancata verifica delle informazioni prima della eventuale pubblicazione del contenuto.

Negli impegni relativi a NOVA AI, infine, è stato anche chiarito al consumatore che si tratta di un servizio che offre solo accesso, mediante un’unica interfaccia, ad alcuni chatbot, senza fornire direttamente un servizio di aggregazione e di elaborazione delle risposte.

(Immagine in apertura: Shutterstock)