Il debito tecnologico che frena l’AI nelle PMI italiane

Indice dell'articolo
L’intelligenza artificiale la chiedono tutti, dal CEO al direttore IT, al responsabile della qualità. Ma nelle PMI manifatturiere italiane arriva spesso a sbattere contro un ostacolo che non ha niente a che fare con modelli o agenti: la mancanza di dati connessi, processi codificati e sistemi integrati. Prima di parlare di AI, bisogna riparare l’impianto idraulico. È la lettura più concreta emersa dalla conferenza stampa italiana di Impresoft, system integrator focalizzato sul segmento mid-to-large enterprise, che ha presentato la propria strategia “AI first at scale” insieme a una selezione di casi d’uso già in produzione.
Oltre al debito pubblico, abbiamo un debito tecnologico

Alessandro Geraldi, Group CEO di Impresoft
Alessandro Geraldi, Group CEO di Impresoft, ha aperto sottolineando la situazione degli investimenti IT in Italia: siamo il quarto mercato europeo per spesa digitale – circa 43 miliardi di euro nel corporate – ma la proporzione è dell’1,9% del PIL contro il 2,6% dei principali paesi europei comparabili, e oltre il 4% degli Stati Uniti. Il risultato, secondo Geraldi, è un debito tecnologico accumulato nel tempo: “Se hai speso l’1,9% del PIL e gli altri spendono due volte tanto per anni, è come voler usare una lavatrice senza aver manutenuto l’impianto idraulico di casa. L’infrastruttura dati è fondamentale: senza avere i processi codificati, senza avere i dati connessi, l’AI non può aiutarti a utilizzarli in maniera efficace”.
Senza avere i processi codificati, senza avere i dati connessi, l’AI non può aiutarti
Il punto è rilevante perché la traiettoria di Impresoft (240 milioni di ricavi attesi nel 2026, 18 acquisizioni dal 2023, 5.000 clienti attivi) è costruita esattamente su questo gap: serve al segmento mid-to-large enterprise (aziende manifatturiere, retail, pharma) che i grandi integratori hanno storicamente trascurato in favore di banche, utility e pubblica amministrazione, per prepararsi a poter adottare davvero le tecnologie innovative.
Gli sviluppatori non si tagliano: si potenziano
Sul tema dell’impatto dell’AI sugli organici IT, Geraldi ha preso una posizione esplicita e in controtendenza rispetto a molti annunci di settore. Impresoft ha oltre 100 sviluppatori interni dedicati al proprio software, e dopo aver adottato strumenti di AI generativa per la produzione di codice – tra cui Claude di Anthropic – ha deciso non di ridurre queste risorse ma di aumentarle. La logica: “Gli sviluppatori sono anche subject matter expert. Che sviluppino l’ERP per la gestione dell’ortofrutta o un MES per l’industria, sono persone competenti sulla materia, non solo sul codice. Con questo esoscheletro [l’AI che conferisce superpoteri,Ndr] possono fare molte più cose che fino a ieri non riuscivano a fare”.
Gli sviluppatori non scrivono solo codice. Sono anche subject matter expert.
Il nodo governance: costi, modelli instabili, dipendenza geopolitica
I modelli AI cambiano continuamente, spesso per potenziarsi ma in qualche caso anche degradando le prestazioni per gestire i costi computazionali. Le aziende rischiano di costruire processi critici su infrastrutture fuori dal loro controllo. Come ci si tutela?
Geraldi ha riconosciuto la questione. “Quasi nessuno si pone oggi il problema del controllo della spesa AI, ma prima o poi dovremo porcelo”, ha detto, sottolineando come oggi pochi soggetti extra europei controllano i costi computazionali delle aziende. La risposta di Impresoft è un prodotto interno chiamato Amaltia: un sistema che connette dati da fonti eterogenee (CRM, e-commerce, piattaforme di marketing), genera sintesi esecutive e analytics granulari, ma soprattutto funziona come orchestratore multi-LLM e strumento di AI governance, monitorando chi usa quale modello, con quale frequenza e a quale costo. “I tuoi dati rimangono tuoi, non stai arricchendo modelli esterni, e puoi cambiare modello o usarne uno offline e continuare a lavorare”, ha spiegato Geraldi.
È un posizionamento che risponde a un’esigenza reale, anche se il prodotto è ancora nelle prime fasi di distribuzione.
Casi d’uso: dalla qualità manifatturiera ai contratti in cinese
I casi concreti presentati mostrano una gamma piuttosto eterogenea per profondità di implementazione. I più significativi per il pubblico IT sono:
Qualità manifatturiera
Nupi Industrie Italiane (sistemi in plastica per fluidi) e Ognibene Power (componenti idraulici per macchine movimento terra) hanno implementato Quarta EVO AI, soluzione multi-agente integrata nel sistema di gestione della qualità. Il sistema interroga i dati aziendali e compila automaticamente non conformità e reclami, riducendo il lavoro manuale e aumentando la tracciabilità. Il cambio di ruolo è quello che Geraldi descrive come passaggio dall’operativo al cognitivo: “Il lavoro si sposta dalla raccolta dei dati all’essere colui che verifica quello che è successo”.
Analisi contrattuale multilingua
Prysmian, leader globale nei cavi per energia e telecomunicazioni, utilizza una soluzione di Contract AI basata su Microsoft Azure e Azure AI Foundry per tradurre e analizzare contratti in lingua cinese e altre giurisdizioni, con assegnazione automatica di uno score di rischio per clausola. Il dato dichiarato dall’azienda è un ROI proiettato del 700 percento in 12 mesi, con oltre 3.000 ore di lavoro risparmiate. Una cifra che indica l’ordine di grandezza dell’impatto su processi legali ad alta intensità umana.
Sanità
AUSL Reggio Emilia e AOU di Modena utilizzano H-Connect, soluzione di integrazione dei sistemi informativi dipartimentali su Microsoft Azure, per lo scambio sicuro di dati clinici tra unità operative e l’invio conforme dei referti a livello regionale e nazionale. In questo caso il valore non è nell’AI generativa ma nell’integrazione infrastrutturale, confermando la tesi centrale: prima i dati connessi, poi tutto il resto.
La formazione che non può essere un corso registrato
Un ultimo tema vale la pena segnalare, anche se meno legato a prodotti specifici: il modello formativo adottato internamente. Geraldi ha esplicitamente abbandonato l’idea del corso frontale (“magari registrato sei mesi fa, che avrebbe poco senso oggi”) in favore di micro-team settimanali di confronto pratico, con un confronto peer-to-peer su come ciascuno sta usando gli strumenti. Il riferimento agli scout non è casuale: è un modello di apprendimento per pratica ripetuta e trasmissione orale, non per accumulazione di contenuti.
La stessa logica si applica, secondo Geraldi, al rischio di divaricazione interna: chi usa l’AI quotidianamente migliora in modo non lineare, chi non la usa decade. “Non mi meraviglierei se domani i più bravi mi chiedessero, oltre allo stipendio, più capacità computazionale in termini di token”.