La rapida espansione e diffusione dell’intelligenza artificiale nelle organizzazioni ha portato a un’ampia spinta globale verso la regolamentazione di questa tecnologia. Entro il 2026, Gartner prevede che il 50% dei governi di tutto il mondo imporrà l’uso dell’IA responsabile attraverso regolamenti, politiche e la necessità di garantire la privacy dei dati.

Per quanto riguarda l’impatto delle normative sull’IA sui piani futuri dei CIO e di cosa questi possono fare per implementare e responsabilizzare l’IA nelle loro organizzazioni, Anushree Verma, direttore analista di Gartner, prevede che le normative sull’IA responsabile erigeranno confini geografici nel mondo digitale, creando una rete di normative concorrenti di diversi governi per proteggere le nazioni e le loro popolazioni da applicazioni non etiche o comunque indesiderate dell’IA e della GenAI.

Questo limiterà la capacità dei leader IT di massimizzare i prodotti IA e GenAI stranieri nelle loro organizzazioni. Queste normative richiederanno inoltre agli sviluppatori di IA di concentrarsi su una maggiore etica dell’IA, trasparenza e privacy attraverso un uso responsabile dell’IA nelle organizzazioni.

Tra gli esempi di IA responsabile spiccano la trasparenza nell’uso dell’IA, l’attenuazione dei pregiudizi negli algoritmi, la sicurezza dei modelli contro la sovversione e l’abuso, la protezione della privacy delle informazioni dei clienti e la conformità alle normative.

Lo sviluppo e l’utilizzo di un’IA responsabile non saranno fondamentali solo per gli sviluppatori di prodotti e servizi di IA, ma anche per le organizzazioni che utilizzano gli strumenti di IA. La mancata conformità esporrà infatti le organizzazioni a un controllo etico da parte dei cittadini in generale, con conseguenti rischi finanziari, reputazionali e legali significativi per l’organizzazione.

ia responsabile

Secondo Verma, la responsabilizzazione dell’intelligenza artificiale avrà un impatto praticamente su tutte le applicazioni dell’IA nei vari settori. “Nel breve termine, i settori più regolamentati, come i servizi finanziari, la sanità, la tecnologia e la pubblica amministrazione, saranno i primi ad adottare l’IA responsabile, che però svolgerà un ruolo importante anche nei settori meno regolamentati, aiutando a costruire la fiducia dei consumatori e a promuoverne l’adozione, oltre a mitigare i rischi finanziari e legali”.

Ci sono infine almeno quattro azioni che le organizzazioni possono prendere in considerazione quando si tratta di rendere i loro progetti GenAI a prova di futuro:

  • Monitorare e incorporare l’evoluzione dei requisiti di conformità dell’IA responsabile da parte dei diversi governi, sviluppando un quadro che mappi il portafoglio di prodotti e servizi GenAI dell’organizzazione ai requisiti normativi sull’IA delle diverse nazioni
  • Comprendere, implementare e utilizzare pratiche di IA responsabile contestualizzate all’organizzazione. Ciò può essere fatto determinando un curriculum per l’IA responsabile e stabilendo quindi un approccio strutturato per educare e creare visibilità all’interno dell’organizzazione, coinvolgere le parti interessate e identificare i casi d’uso e le soluzioni appropriate per l’implementazione
  • Rendere operativa la gestione della fiducia, del rischio e della sicurezza dell’IA (AI TRiSM) nelle soluzioni incentrate sull’utente, integrando l’IA responsabile per accelerare l’adozione e migliorare l’esperienza dell’utente
  • Garantire la responsabilità dei fornitori di servizi per una governance responsabile dell’IA, applicando gli obblighi contrattuali e mitigando l’impatto dei rischi derivanti da comportamenti non etici e non conformi o dai risultati di pregiudizi incontrollati e inspiegabili delle soluzioni di IA