Secondo le più recenti previsioni di Gartner, entro il 2028 le violazioni normative legate all’IA provocheranno un incremento del 30% nelle dispute legali che coinvolgono le aziende tecnologiche. Un dato che evidenzia come la compliance regolatoria rappresenti oggi uno dei principali ostacoli strategici all’adozione su larga scala di strumenti di IA generativa.

Secondo l’indagine condotta da Gartner tra maggio e giugno 2025 su un campione di 360 responsabili IT coinvolti nell’implementazione di soluzioni GenAI nelle loro organizzazioni, oltre il 70% degli intervistati considera la conformità normativa una delle tre sfide più rilevanti legate alla diffusione degli assistenti di produttività basati su IA. Eppure, solo il 23% si dichiara pienamente fiducioso nella capacità della propria azienda di gestire in modo efficace gli aspetti di sicurezza, governance e trasparenza dei modelli IA integrati nelle applicazioni enterprise.

Il nodo centrale, spiega Lydia Clougherty Jones, Senior Director Analyst di Gartner, risiede nella frammentazione dei quadri normativi globali. Ogni Paese, infatti, tende a definire regole e priorità basandosi su un equilibrio diverso tra leadership tecnologica, innovazione e mitigazione del rischio. Questa eterogeneità porta a sistemi di conformità spesso incoerenti o persino contraddittori, complicando l’allineamento tra investimenti in IA e valore aziendale misurabile.

Ne consegue che molte imprese si trovano esposte a responsabilità legali e operative derivanti da interpretazioni divergenti delle leggi sull’IA, un aspetto particolarmente critico in settori regolamentati come finanza, sanità e pubblica amministrazione.

Parallelamente, la crescente instabilità geopolitica aggiunge ulteriori variabili a un contesto già complesso. Oltre la metà dei leader IT non statunitensi intervistati da Gartner (il 57%) riconosce che il clima geopolitico influisce almeno in parte sulle proprie strategie di sviluppo e implementazione della GenAI, e quasi un quinto (19%) ritiene che tale impatto sia significativo.

Tuttavia, nonostante le tensioni globali e i timori legati alla dipendenza tecnologica da Paesi terzi, quasi il 60% degli intervistati dichiara di non voler adottare alternative GenAI non statunitensi. Una contraddizione che riflette il peso dell’ecosistema tecnologico americano e la difficoltà di emanciparsene, pur in un quadro sempre più sensibile al tema della sovranità digitale.

Regolamentazione IA

Crediti: Shutterstock

Proprio la sovranità dell’IA, ovvero la capacità di una nazione di controllare sviluppo, implementazione e governance delle tecnologie di intelligenza artificiale entro i propri confini, è destinata a giocare un ruolo chiave nelle strategie aziendali dei prossimi anni. In un sondaggio condotto da Gartner nel settembre 2025 durante un webinar dedicato al tema, il 40% dei 489 partecipanti ha espresso un sentimento “positivo” verso la sovranità dell’IA, considerandola un’opportunità per costruire ecosistemi più sicuri e trasparenti, mentre il 36% ha adottato un atteggiamento di attesa, preferendo un approccio “wait and see”.

Nonostante il cauto ottimismo, i dati mostrano una consapevolezza crescente. Il 66% degli intervistati afferma infatti di essere attivamente impegnato nello sviluppo o nell’adeguamento a strategie di IA sovrana, mentre oltre la metà (52%) dichiara che la propria organizzazione sta già modificando il modello operativo o strategico in risposta a tali dinamiche. È un segnale chiaro di come la sovranità dell’intelligenza artificiale stia diventando un elemento strutturale nella pianificazione tecnologica e non più solo un tema di dibattito politico o accademico.

Gartner sottolinea inoltre che, in un contesto caratterizzato da normative divergenti, pressioni geopolitiche e modelli IA sempre più pervasivi, i responsabili IT devono agire tempestivamente per rafforzare i meccanismi di moderazione degli output generativi, riducendo il rischio di comportamenti non conformi o potenzialmente dannosi.

Le linee guida individuate dagli analisti delineano un approccio pragmatico e multilivello. Innanzitutto, occorre ingegnerizzare la capacità di autocorrezione nei modelli, in modo che essi riconoscano e gestiscano in tempo reale le richieste non appropriate, restituendo messaggi standardizzati come “beyond the scope” anziché risposte ambigue o errate. In parallelo, è fondamentale introdurre procedure rigorose di revisione dei casi d’uso, valutando il rischio che un output generativo possa tradursi in un’azione indesiderata da parte dell’utente finale, con implicazioni legali, etiche o di sicurezza.

Un terzo elemento chiave è l’ampliamento delle fasi di testing e sandboxing. Gartner raccomanda infatti di costituire team multidisciplinari composti da ingegneri decisionali, data scientist e consulenti legali, con l’obiettivo di definire protocolli di pre-test e validare i risultati dei modelli rispetto alle policy aziendali e ai limiti etici stabiliti. La documentazione di queste attività diventa così parte integrante della due diligence interna, garantendo tracciabilità e responsabilità nelle fasi di sviluppo e distribuzione dei modelli.

(Immagine in apertura: Shutterstock)