Si è tenuto la settimana scorsa ad Atene EmTech Europe, evento organizzato dall’editore locale dell’MIT Technology Review che ha portato sul palco ricercatori, manager e imprenditori per capire a che punto siamo con l’intelligenza artificiale e le tecnologie di frontiera. Non quelle delle roadmap di marketing, ma quelle che le organizzazioni cercano di integrare nei propri processi.

Gli argomenti erano molto eterogenei, ma se vogliamo cercare un filo conduttore, è questo: l’IA promette molto, ma il divario tra aspettativa e realtà operativa rimane ampio; i rischi per il lavoro, per la qualità dell’informazione, per l’indipendenza e la libertà nella società, richiedono risposte che la tecnologia da sola non può dare.

Ecco una sintesi di alcuni degli interventi più interessanti (torneremo nei prossimi giorni con alcune interviste fatte in loco).

Joseph Sifakis: l’IA è ancora nella sua infanzia

Emeritus Research Director at Verimag

Joseph Sifakis, laureato al Premio Turing e Direttore Emerito della Ricerca all’istituto Verimag di Grenoble, in Francia

Il Turing Award è il Nobel dell’informatica, e chi lo ha vinto di solito non ha problemi a dire cose scomode. Joseph Sifakis, premiato nel 2007 per i suoi contributi alla verifica formale dei sistemi, ha aperto la conferenza con una lettura controcorrente dello stato dell’arte: i sistemi basati sui large language model attuali sono assistenti, non agenti. Rispondono a domande, che possono anche essere codificate in modo da ripetersi all’occorrenza, ma non perseguono propri obiettivi in autonomia, non si adattano ad ambienti dinamici, non garantiscono l’affidabilità richiesta per applicazioni critiche, che nel caso dei sistemi complessivi per l’aviazione corrisponde a una probabilità di guasto inferiore a 10⁻⁹ per ora di volo. Obiettivo decisamente lontano per i modelli AI attuali.

Particolarmente netta la sua posizione sull’intelligenza artificiale generale: “Dire che costruiremo macchine che supereranno gli esseri umani in quasi tutte le funzioni cognitive è tecnicamente privo di senso”. Il problema, spiega, non è la potenza computazionale ma l’assenza di un modello del mondo: un sistema che gioca a scacchi, analizza immagini e genera testo non è intelligente se non sa coordinare queste capacità in funzione di obiettivi. Manca il senso comune, e soprattutto manca un sistema di valori, che è la ragione per cui non basta che un’IA superi l’esame della patente per affidarle un’automobile.

L’istruzione è come lo sport: non puoi chiedere a un robot di fare gli esercizi al posto tuo

Sul fronte regolatorio, Sifakis è pessimista: “Siamo già in ritardo”, dice. L’AI Act europeo è un testo valido, ma l’Europa non ha il potere di applicarlo su scala globale, e gli Stati Uniti si muovono nella direzione opposta. Il rischio più sottovalutato, a suo avviso, non è la ribellione delle macchine ma l’atrofia cognitiva: delegare compiti all’IA erode la concentrazione, la comprensione e la creatività, soprattutto nei giovani. “L’istruzione è come lo sport: non puoi chiedere a un robot di fare gli esercizi al posto tuo”.

Alessandra Sala: deepfake, bambini e il problema di un’infrastruttura di fiducia che non esiste

Alessandra Sala, Head of Artificial Intelligence and Data Science at Shutterstock

Alessandra Sala, Head of Artificial Intelligence and Data Science di Shutterstock

Alessandra Sala, Head of AI and Data Science di Shutterstock e co-presidente dell’iniziativa Unesco Women for Ethical AI, ha portato alcuni tra i numeri più inquietanti della giornata: ogni giorno vengono generate circa 50 milioni di nuove immagini sintetiche. Il World Economic Forum ha identificato per il terzo anno consecutivo la disinformazione come il principale rischio globale a breve termine per gravità e, secondo l’ONU, è anche il rischio per cui siamo collettivamente meno preparati.

Secondo l’ONU, la disinformazione è il rischio per cui siamo collettivamente meno preparati

I casi citati da Sala non lasciano spazio all’astrazione: il 98% dei deepfake colpisce donne e minori (dato del governo britannico); in Spagna, oltre venti bambini tra i 12 e i 13 anni sono stati vittime di immagini generate con i loro volti su siti pornografici. Tecnicamente, i sistemi per rilevare la provenienza dei contenuti esistono già (watermarking, content credential, identificatori di asset) ma manca il quadro regolatorio che permetta di dare un seguito alle segnalazioni. “Puoi identificare il problema e tracciare chi distribuisce il contenuto, ma non c’è una norma a cui agganciarsi per agire”.

L’iniziativa che Sala coordina in ambito ISO/IEC/ITU lavora su tre livelli: tecnologia (standard per autenticità e provenienza), policy (linee guida per legislatori e sviluppatori, compreso un protocollo di risposta alle crisi) e impatto sociale (come gli utenti comuni interpretano i segnali tecnici incorporati nei contenuti). Su quest’ultimo punto resta aperta una domanda concreta: i content credential dicono qualcosa ai professionisti, ma cosa significano per un adolescente o per i nostri genitori?

Oltre al rischio di credere a immagini che veicolano informazioni false, ce n’è un altro speculare: non credere più a immagini che descrivono situazioni vere.

George Cheimonidis: l’IA agentica richiede fondamenta solide, non modelli migliori

Lea Peersman, CEO e co-fondatrice di Lign.AI e fondatrice di CIEL Studio

Lea Peersman, CEO e co-fondatrice di Lign.AI e fondatrice di CIEL Studio

George Cheimonidis, Innovation & Business Development Director di Performance Technologies, ha presentato i risultati di un’indagine ServiceNow-Oxford Economics su circa 5.000 dirigenti, che mostra un risultato paradossale: il punteggio di maturità nell’adozione dell’IA è sceso nell’ultimo anno, nonostante gli investimenti siano in crescita. La spiegazione è controintuitiva ma coerente: la maturità viene misurata rispetto a ciò che è disponibile, e il ritmo di innovazione dei grandi player è così rapido che le organizzazioni non riescono ad assorbirlo.

La causa principale dei fallimenti, secondo Cheimonidis, non è la scelta del modello sbagliato: “I modelli stanno diventando una commodity. ChatGPT, Claude, tutti questi modelli migliorano continuamente. La sfida è costruire le fondamenta operative”. Per fondamenta intende qualcosa di poco glamour: mappare i processi aziendali, definirli in modo non ambiguo, strutturare i flussi di lavoro in modo che un sistema automatizzato possa operarvi in sicurezza. L’IA agentica richiede che questi processi esistano già e siano ben governati, altrimenti l’automazione amplifica il caos invece di ridurlo.

Sul tema occupazionale, Cheimonidis è diretto: le attività ripetitive, basate su regole e ad alto volume e tradizionalmente appannaggio dei profili junior verranno assegnate all’IA. Il ruolo umano residuo sarà quello di gestire le eccezioni, definire i confini etici e prendere le decisioni che l’IA non può assumere.

Il messaggio ai leader è: “Il momento è adesso, non dopo. I ruoli e le responsabilità dei lavoratori stanno cambiando, e serve porre le basi per questo cambiamento”.

L’intelligenza dell’organizzazione – aggiunge – non coincide con il miglior LLM disponibile sul mercato: risiede nei processi, nelle conoscenze accumulate, nel contesto e deve restare all’interno dell’azienda: i modelli arricchiti con queste informazioni e procedure devono essere custodite come patrimonio aziendale strategico.

I modelli arricchiti con le informazioni e procedure interne devono essere custodite come patrimonio aziendale strategico

Lea Peersman: il futuro del lavoro è una questione di fondamenta umane, non di strumenti

Lea Peersman, CEO e co-fondatrice di Lign.AI e fondatrice di CIEL Studio

Lea Peersman, CEO e co-fondatrice di Lign.AI e fondatrice di CIEL Studio

Agganciandosi al tema dell’occupazione, Lea Peersman, CEO e co-fondatrice di Lign.AI e fondatrice di CIEL Studio, ha spostato la conversazione dal piano tecnologico a quello antropologico. Il suo punto di partenza è che l’IA non è un fenomeno del mercato del lavoro, ma un fenomeno della vita. I confini tra lavoro e non-lavoro si stanno dissolvendo: si lavora da qualsiasi luogo, a qualsiasi età e su più ruoli contemporaneamente. L’IA accelera questa dissoluzione senza che le infrastrutture educative e organizzative si siano adeguate.

Tra i problemi che Peersman identifica c’è l’annientamento del gradino di ingresso per la gavetta aziendale. I primi gradini della carriera richiedevano di sviluppare capacità come scrivere un testo, costruire un’analisi o creare una presentazione, ed erano quelli in cui si acquisivano queste competenze. Se quei compiti vengono delegati all’IA prima ancora di averli padroneggiati, il percorso di crescita perde le sue fondamenta. “Gli studenti parlano prima all’IA e poi all’insegnante. I lavoratori parlano prima all’IA e poi ai colleghi. E così i neuroni specchio – il meccanismo con cui impariamo dagli altri – vengono meno”.

Gli studenti parlano prima all’IA e poi all’insegnante. I lavoratori parlano prima all’IA e poi ai colleghi. E così i neuroni specchio – il meccanismo con cui impariamo dagli altri – vengono meno

La risposta che propone non è tecnologica ma sistemica: investire nel sistema nervoso (salute, gestione delle emozioni), nelle relazioni sociali, nella polivalenza delle competenze e nell’autogestione come capacità fondamentale. Quest’ultima, dice, sarà sempre più la base di ogni percorso HR orientato al futuro: con carriere non lineari e organizzazioni incapaci di supportare le persone alla velocità richiesta, la capacità di gestire sé stessi diventa una competenza strategica.

Fotis Rigas: in Grecia, come ovunque, il vero problema è culturale

Lea Peersman, CEO e co-fondatrice di Lign.AI e fondatrice di CIEL Studio

Lea Peersman, CEO e co-fondatrice di Lign.AI e fondatrice di CIEL Studio

Fotis Rigas, Executive Talent Director di Human Factor, ha calato il discorso nel contesto greco con dati Eurostat aggiornati a febbraio 2026: il 44,1% della popolazione in Grecia dichiara di utilizzare l’IA, con le generazioni più giovani che adottano gli strumenti più rapidamente di quanto i leader aziendali si aspettino. Ma il tessuto produttivo, simile a quello italiano, è un ostacolo strutturale: il 95% delle imprese greche ha meno di nove dipendenti, il 60% è composto da una sola persona. Un’economia dominata dalle PMI, con il 25% del PIL legato al turismo e una quota significativa al retail, è difficile da riconvertire attraverso tecnologie che richiedono scala, dati e competenze specializzate.

A questo si aggiungono due tendenze demografiche preoccupanti: un tasso di fertilità di 1,27 (2025), che secondo le proiezioni porterà la forza lavoro a perdere circa un milione e mezzo di persone entro il 2045, e un saldo migratorio ancora negativo nonostante le misure di incentivo al rientro. “Dobbiamo usare l’IA almeno per mantenere la produttività che abbiamo”, sintetizza Rigas, senza illudersi che la tecnologia risolverà le contraddizioni strutturali.

Il vero nodo, per Rigas, è culturale prima che tecnologico: il problema non è la mancanza di strumenti ma la resistenza al cambiamento in organizzazioni abituate a operare in modo consolidato. “Excel è ancora qui. L’IA è arrivata, ma Excel esiste ancora: questo non è un problema di sistema, è un problema di cultura”. Sul fronte occupazionale, Rigas stima un orizzonte di cinque-dieci anni prima di una sostituzione significativa del lavoro umano, con una distinzione importante: il lavoro verrà ridisegnato, non eliminato, e i ruoli più esposti sono quelli a basso contenuto cognitivo, mentre quelli con forte componente relazionale o artigianale manterranno un valore difficilmente replicabile.