C’è una distanza sempre più marcata tra il modo in cui l’IA viene venduta alle aziende e il modo in cui si comporta una volta messa in produzione. Lo dimostra con numeri difficilmente ignorabili una ricerca pubblicata da Sinch, società svedese specializzata nelle comunicazioni as-a-service, che ha intervistato oltre 2.500 decision maker in ambito AI distribuiti tra diversi Paesi e settori industriali.

Il dato più dirompente dello studio AI Production Paradox riguarda il tasso di rollback degli agenti AI dedicati al customer service: il 74% dei sistemi effettivamente andati in produzione viene ritirato dal servizio o spento non per problemi emersi prima del lancio, ma dopo che il sistema aveva già incontrato clienti reali.

La distinzione è importante perché non si tratta di progetti falliti in fase di sviluppo o pilota, ma di soluzioni che hanno superato i test interni, ottenuto il via libera e poi dimostrato di non reggere le condizioni operative reali. È un tipo di fallimento più costoso e più visibile, che lascia tracce nei bilanci, nella soddisfazione dei clienti e nella reputazione dei team che hanno sponsorizzato l’iniziativa.

Più governance, più fallimenti

Il dato che più dovrebbe far riflettere i responsabili IT e i CTO non è però il 74% in sé, ma quello che emerge segmentando il campione per maturità organizzativa. Tra le aziende che Sinch definisce dotate di “guardrail pienamente maturi” (ovvero quelle che hanno investito di più in processi di supervisione, controllo e governance dell’AI), il tasso di rollback non scende, ma addirittura sale all’81%.

Una percentuale che sembra controintuitiva fino a quando non si legge la spiegazione fornita da Daniel Morris, Chief Product Officer di Sinch, secondo il quale le organizzazioni più avanzate non falliscono di meno ma rilevano i problemi prima. Una governance più sofisticata produce insomma sistemi di monitoraggio più sensibili, che intercettano le anomalie in anticipo e accelerano la decisione di interrompere il servizio. Il problema di fondo è quindi qualcosa di più strutturale della sola governance.

ai customer service

Fonte: Sinch

Questo “qualcosa di più strutturale” emerge chiaramente anche dal fatto che l’84% dei team di ingegneria AI dedica almeno la metà del proprio tempo alla safety infrastructure, lasciando ben poco spazio allo sviluppo effettivo delle funzionalità. E quando si chiede alle aziende dove concentrano le loro priorità di spesa, il 75% mette trust, security e compliance nei primi tre posti davanti allo sviluppo AI vero e proprio, che raccoglie il 63%. Il problema principale non è insomma far funzionare bene l’AI, ma farla funzionare in sicurezza e ciò costa molto di più di quanto la maggior parte delle organizzazioni avesse preventivato.

Uno degli argomenti più frequentemente usati per spiegare i fallimenti AI in ambito enterprise è la mancanza di risorse, soprattutto per quanto riguarda le aziende più piccole. I dati di Sinch smentiscono però questa narrativa, visto che il tasso di rollback si mantiene sostanzialmente costante indipendentemente dalle dimensioni dell’organizzazione, dal settore di appartenenza e dalla regione geografica. Semplicemente, la complessità operativa della gestione dell’AI in produzione, a scala, è sistemicamente superiore alle aspettative di partenza… e lo è per tutti.

Un quadro coerente con il mercato

I numeri di Sinch non arrivano in realtà come un fulmine a ciel sereno, considerando che Gartner aveva stimato già a giugno 2025 che almeno la metà delle organizzazioni che puntavano a ridurre significativamente il personale di customer service grazie all’AI avrebbe abbandonato quei piani entro il 2027. A questo si aggiunge una ricerca di Carnegie Mellon che stima un tasso di errore degli agenti AI su task aziendali intorno al 70%, mentre ricercatori Microsoft hanno documentato come i modelli AI e gli agenti autonomi abbiano difficoltà significative con le attività di lunga durata.

Il quadro complessivo è insomma quello di una tecnologia ancora lontana dalla maturità necessaria per sostituire in modo affidabile le persone in contesti di servizio al cliente, dove l’imprevedibilità delle richieste, la necessità di gestire l’escalation emotiva e la variabilità dei casi limite rappresentano sfide che i sistemi attuali non sanno ancora gestire con continuità.

C’è infine da sottolineare che ogni rollback pubblico di un agente AI erode la fiducia interna verso le iniziative future. Le organizzazioni che hanno già vissuto un ritiro traumatico faticano infatti a ottenere budget e consenso per il progetto successivo, anche quando le condizioni tecniche sarebbero migliorate. Il 74% di Sinch è quindi anche un indicatore di quanta cautela sarà necessaria per costruire la prossima ondata di adozione in modo più solido e credibile.

(Immagine in apertura: Shutterstock)