Intelligenza Artificiale

Intelligenza artificiale: evoluzione e possibili sviluppi

intelligenza-artificiale

Intelligenza artificiale: storia, evoluzione attuale e possibili sviluppi

Attualmente l’intelligenza artificiale, spesso indicata semplicemente con AI (artificial intelligence), trova applicazioni in diversi campi, dal retail ai trasporti, dal settore medico al finance, dalle ricerche su Internet agli assistenti personali come Alexa e Siri.

Attorno ad essa scorrono fiumi di denaro, i big dell’IT fanno ricerche in questo settore e, se non hanno risorse interne, acquisiscono startup o piccole aziende specializzate. Storicamente, le prime aziende IT a investire nell’intelligenza artificiale sono state IBM e Microsoft, seguite da player del calibro di Apple, Facebook, Google e Amazon, solo per citare qualche nome.

Leggi anche: 10 applicazioni concrete dell’intelligenza artificiale

L’intelligenza artificiale comporta tuttavia una intrinseca complessità, legata alla difficoltà di definire cos’è l’intelligenza umana e a cosa si intende per “macchina intelligente”. Inoltre, nonostante siano disponibili numerose soluzioni basate sull’intelligenza artificiale, esiste ancora un gap tra i risultati raggiunti a livello teorico, le applicazioni pratiche e la distribuzione su larga scala dell’innovazione potenzialmente abilitata dall’AI.

L’intelligenza artificiale dalle origini a oggi

La nascita ufficiale dell’intelligenza artificiale viene datata al 1956, quando al Dartmouth College, nel New Hampshire, si tenne un convegno dedicato allo sviluppo di macchine intelligenti. L’iniziativa era proposta da un gruppo di ricercatori, guidato da John McCarthy, che si proponeva di creare in pochi mesi una macchina capace di simulare l’apprendimento e l’intelligenza umana.

La sfida fu accolta da personalità di spicco del mondo accademico e industriale, tra le quali Marvin Minsky e Claude Shannon del Dartmouth College, Arthur Samuel di IBM, Ray Solomonoff e Oliver Selfridge del MIT. Fu nell’ambito di questo convegno che McCarthy introdusse per la prima volta il termine “intelligenza artificiale” e ne sancì di fatto la nascita come disciplina autonoma.

L’obiettivo di creare una macchina capace di simulare ogni aspetto dell’apprendimento umano non è stato ancora raggiunto. Tuttavia le ricerche fatte in questa direzione hanno aperto la strada a nuovi campi di studio e a risultati che, nel tempo, hanno avvicinato sempre di più l’intelligenza artificiale al mondo dell’impresa. Tra le tappe miliari di questa evoluzione ci sono il LISP (1958), un linguaggio di programmazione specifico per problemi di intelligenza artificiale sviluppato dallo stesso McCarthy, e il programma ELIZA (1965), che simulava l’interazione tra un paziente e uno psicoterapeuta.

Il complesso problema di costruire macchine in grado di replicare l’intelligenza umana si è via via evoluto in un approccio più pragmatico, basato sulla scomposizione di un problema in sotto-problemi. A partire dagli anni ’70 sono stati sviluppati diversi sistemi esperti, ovvero programmi in grado di affrontare un problema specifico simulando le capacità di un esperto in quel particolare ambito. Una tappa importante in questo sviluppo è stato MYCIN (1976), un sistema esperto in grado di fare diagnosi per malattie ematiche.

È negli anni ’80 che l’intelligenza artificiale esce dall’ambito accademico ed entra nel mondo industriale. Un esempio di questo passaggio storico è R1, un sistema utilizzato dalla Digital Equipment che permetteva di configurare gli ordini per nuovi computer: introdotto nel 1982, R1 è il primo sistema esperto utilizzato in ambito commerciale.

Da allora ai giorni nostri le applicazioni basate sull’intelligenza artificiale si sono moltiplicate. La svolta è dovuta all’evolversi delle capacità computazionali e allo sviluppo di una serie di tecnologie abilitanti, tra le quali Big Data e cloud storage..

In questo sviluppo, l’intelligenza artificiale viene intesa come una disciplina che risolve problemi specifici in ambiti ben definiti, e – invece di essere programmata con istruzioni specifiche da parte degli sviluppatori – viene “addestrata” esponendola a enormi quantità di dati in cui ricercare relazioni, gruppi e tendenze. È il cosiddetto machine learning, apprendimento automatico, ed è alla base dei modelli utilizzati per raggruppare o discriminare dati (trovare dati simili o identificare quelli difformi), individuare schemi nascosti o fare previsioni (dall’andamento del titolo di un’azione in borsa al momento in cui un macchinario si romperà, la cosiddetta manutenzione predittiva).

Leggi anche: Il machine learning, spiegato bene: cos’è, come funziona e quali strumenti si usano

L’approccio seguito in questo caso è quello dell’AI debole, secondo cui le macchine possono comportarsi come se fossero intelligenti. Un approccio di ampio respiro che mantiene l’aspirazione a un grande obiettivo, ma si focalizza sulla soluzione di problemi specifici. Questa concezione si contrappone a quella dell’AI forte, secondo cui le macchine possono effettivamente essere intelligenti.

L’evoluzione successiva al machine learning chiamata deep learning, in cui la rete neurale è stratificata su diversi livelli. Questi modelli sono alla base di alcune applicazioni usate ormai quotidianamente per riconoscere oggetti all’interno di immagini, analizzare onde sonore per convertire il parlato in testo o elaborare il linguaggio e tradurlo in altre lingue o formati.

Leggi anche: I migliori strumenti di machine learning per data scientist e sviluppatori

Le applicazioni della IA disponibili oggi

Negli ultimi due decenni sono stati sviluppati strumenti e tecnologie che promettono alle imprese un salto di qualità nella gestione del proprio business. Alcune soluzioni sono consolidate e hanno raggiunto una maturità di mercato, altre sono ancora in fase di sviluppo e non è possibile prevedere se il loro potenziale si trasformerà in un impatto reale per le aziende.

Elaborazione del linguaggio naturale (NLP, Natural language processing): questo insieme di tecnologie abilita un’interazione fluida con il linguaggio umano per offrire informazioni, insight e interazioni attraverso frasi o testi lunghi. Vengono utilizzate anche per produrre testi leggibili da un essere umano, tipicamente a partire da un corpo di risposte o da componenti testuali. Questi strumenti possono essere usati per comprendere emozioni, sentimenti e, entro certi limiti, prevedere le intenzioni dell’utente.

Swarm intelligence: le tecnologie di swarm intelligence (letteralmente intelligenza dello sciame) sono sistemi decentralizzati ai quali contribuiscono diversi attori, sia umani che software, ognuno dei quali offre una parte della soluzione di un problema. In questo modo si costruisce una intelligenza superiore che riunisce e aumenta le specifiche conoscenze dei singoli. Queste tecnologie utilizzano il comportamento di insetti sociali (come le api) e sono applicate per modellare algoritmi che rispondono a obiettivi di business, come gestire una flotta di mezzi per le consegne, oppure danno risposte a domande specifiche, come le previsioni di risultati sportivi.

Biometrica: le tecnologie biometriche abilitano un’interazione più naturale tra l’uomo e le macchine. Queste tecnologie rilevano caratteristiche fisiche del corpo umano e includono il riconoscimento di immagini, voce, linguaggio del corpo.

Analisi di immagini e video: si tratta di strumenti e tecnologie che analizzano immagini e video per rilevare oggetti e/o caratteristiche di oggetti. Queste piattaforme trovano applicazioni in diversi settori, tra i quali retail, assicurazioni, sicurezza, marketing.

Tecnologia semantica: un problema centrale per l’AI è comprendere l’ambiente e il contesto in cui viene applicata. Le tecnologie semantiche rispondono a questo problema offrendo una comprensione profonda dei dati e creando le basi per introdurre classificazioni, tassonomie, gerarchie, relazioni, modelli e metadati.

Riconoscimento vocale (speech recognition): sono strumenti e tecnologie che comprendono e interpretano il linguaggio parlato catturando segnali audio e trasformandoli in testo scritto o altri formati di dati utilizzabili in varie applicazioni, come sistemi vocali per customer service, applicazioni mobile o robot fisici.

Hardware ottimizzato per l’AI: questa categoria comprende GPU e appliance progettate specificamente per eseguire compiti specifici dell’AI, come machine learning e deep learning.

Robotic process automation (RPA): le tecnologie di robotic process automation comprendono vari metodi per automatizzare azioni umane e rendere più efficienti i processi di business.

Agenti virtuali: software che offrono una interfaccia che permette all’utente di interagire in modo naturale con una macchina o un sistema informatico. Tra di essi ci sono i chatbot ampiamente utilizzati per customer service e applicazioni mobili.

Decision management: si tratta di software che permettono di automatizzare le decisioni in tempo reale attraverso l’inserimento diretto di policy e regole che consentono ai sistemi AI di dedurre decisioni e di intraprendere azioni.

Large language model e IA generativa: evoluzione del Natural Language Processing che, grazie alla crescita a dismisura delle dimensioni del modello, è in grado di generare contenuti testuali o anche visivi in risposta a domande e richieste dell’utente. Le sue applicazioni più famose sono ChatGPT e Google Bard per il testo, Midjourney e Dall-E per le immagini.

Il sogno della IA generalista si riaccende

Mentre il dibattito scientifico e filosofico sulla natura dell’intelligenza umana e la possibilità di replicarla prosegue, il mondo industriale ha scelto negli ultimi l’approccio più pragmatico, che rientra nell’accezione dell’AI debole. Da un anno a questa parte, però, alcuni ricercatori e aziende stanno cominciando a pensare che il sogno della IA Generalista potrà essere realizzato – anche a breve – attraverso la tecnologia dei modelli linguistici.

Tra i principali sostenitori di questa teoria c’è Sam Altman, fondatore e CEO di OpenAI, l’azienda che ha realizzato ChatGPT. Nata inizialmente come organizzazione no-profit per puntava a far progredire lo sviluppo dell’intelligenza artificiale a beneficio dell’intera umanità, OpenAI ha cambiato il suo statuto nel 2019 per adottare una forma a “profittabilità limitata”, entrando nel 2022 nell’orbita di Microsoft, che la ha finanziata con 10 miliardi di dollari.

Le affermazioni di Altman sul prossimo avvento di una IA Generalista con capacità superumane vanno quindi prese con le pinze, ma sono diverse le istituzioni e organizzazioni governative e non a sollevare preoccupazioni sui possibili ma imprevedibili impatti che gli sviluppi futuri dell’intelligenza artificiale potranno avere sulla società. Al punto che Unione Europea, Stati Uniti, Regno Unito e Cina stanno scrivendo leggi per regolamentarne l’utilizzo e gli sviluppi dell’intelligenza artificiale.

Google File Search è la nuova API di Gemini per fare RAG in modo semplice

Google File Search è la nuova API di Gemini per fare RAG in modo semplice

Google lancia File Search Tool per Gemini API, un sistema RAG gestito che semplifica la ricerca e l’integrazione dei dati offrendo citazioni automatiche, supporto multi-formato e un’esperienza scalabile per sviluppatori.  »

Francesco Destri // 10.11.2025
L’UE ripensa alcune regole dell’AI Act: meno regole, più sviluppo. E lancia l’iniziativa RAISE

L’UE ripensa alcune regole dell’AI Act: meno regole, più sviluppo. E lancia l’iniziativa RAISE

La Commissione Europea prepara una revisione dell'AI Act con semplificazioni per Apple, Meta e altri colossi tech e annuncia RAISE, il nuovo istituto virtuale europeo per l’IA nella ricerca scientifica.  »

Francesco Destri // 10.11.2025
Dopo le RAM, l’IA si “mangia” anche hard disk e SSD. Shortage previsto: due anni

Dopo le RAM, l’IA si “mangia” anche hard disk e SSD. Shortage previsto: due anni

Con i principali provider cloud di Stati Uniti e Cina che acquistano in massa NAND QLC per i loro data center IA, si sta generando una nuova e preoccupante ondata di carenza di SSD.  »

Francesco Destri // 10.11.2025
Kimi K2 Thinking è il nuovo LLM cinese che sbaraglia la concorrenza, per prestazioni e costi

Kimi K2 Thinking è il nuovo LLM cinese che sbaraglia la concorrenza, per prestazioni e costi

Moonshot AI ha lanciato Kimi K2 Thinking, LLM open source cinese da 1 trilione di parametri che supera GPT-5 e Claude Sonnet 4.5 in molti benchmark. Costo di training?Solo 4,6 milioni di dollari.  »

Francesco Destri // 10.11.2025
OpenAI rifiuta il bailout: Sam Altman difende l’indipendenza dell’IA mentre Musk accelera sulla corsa ai chip AI

OpenAI rifiuta il bailout: Sam Altman difende l’indipendenza dell’IA mentre Musk accelera sulla corsa ai chip AI

Negli USA la corsa ai chip AI accelera: OpenAI rifiuta aiuti pubblici, Tesla valuta una mega fabbrica con Intel e Amazon, Microsoft e Google continuano la loro corsa verso chip proprietari sempre migliori.  »

Francesco Destri // 07.11.2025
Il threat report di Google mostra come i criminali stanno usando gli LLM per attacchi automatizzati

Il threat report di Google mostra come i criminali stanno usando gli LLM per attacchi automatizzati

Google rivela la nascita di una nuova generazione di malware potenziati dall’intelligenza artificiale, capaci di adattarsi in tempo reale, eludere i controlli e sfruttare modelli generativi come Gemini.   »

Francesco Destri // 07.11.2025
Anche Microsoft in cerca della Superintelligenza, ma “con giudizio”. Si parte dalla diagnostica

Anche Microsoft in cerca della Superintelligenza, ma “con giudizio”. Si parte dalla diagnostica

Microsoft entra nella corsa alla Superintelligenza con un approccio radicalmente diverso. Mustafa Suleyman, capo della divisione AI, propone un modello “umanista”, controllabile e orientato alla sicurezza.  »

Francesco Destri // 07.11.2025
L’industria sta cercando di avvicinare l’AI alle macchine. Il report Netskope

L’industria sta cercando di avvicinare l’AI alle macchine. Il report Netskope

Il nuovo report dei laboratori di ricerca delle minacce di Netskope mostra un incremento degli sforzi del settore manifatturiero per consentire un uso autorizzato e controllato dell’AI.  »

Francesco Destri // 06.11.2025
Snowflake Intelligence permette agli agenti AI di dialogare direttamente con i dati aziendali

Snowflake Intelligence permette agli agenti AI di dialogare direttamente con i dati aziendali

Snowflake Intelligence permette di accedere a insight complessi tramite linguaggio naturale, democratizzando l’intelligenza dei dati con velocità, sicurezza e precisione.  »

Francesco Destri // 06.11.2025
CrowdStrike arruola una squadra di agenti AI per la cybersecurity, coordinati dal SOAR Charlotte

CrowdStrike arruola una squadra di agenti AI per la cybersecurity, coordinati dal SOAR Charlotte

I nuovi agenti AI mission-ready di CrowdStrike lavorano in concerto con agenti personalizzati sulle esigenze del cliente, con lo scopo di automatizzare i workflow ad alto impatto lungo l'intero ciclo di vita della sicurezza.  »

Francesco Destri // 06.11.2025
L’IA fa raddoppiare il prezzo delle memorie RAM, con impatti sulla catena di fornitura

L’IA fa raddoppiare il prezzo delle memorie RAM, con impatti sulla catena di fornitura

La domanda inarrestabile di IA sta facendo impennare i prezzi di NAND e DRAM, con rincari fino al 100% per i consumatori. Ecco perché RAM e SSD stanno diventando sempre più costosi.  »

Francesco Destri // 05.11.2025
Google punta allo spazio per l’IA: satelliti solari con TPU per creare data center orbitali

Google punta allo spazio per l’IA: satelliti solari con TPU per creare data center orbitali

Tra energia pulita, connessioni wireless e sfide tecniche titaniche, Google annuncia Project Suncatcher, una futura costellazione di satelliti solari con TPU per costruire data center orbitali.   »

Francesco Destri // 05.11.2025
Licenziamenti per colpa dell’IA? Metà delle aziende finirà per riassumere

Licenziamenti per colpa dell’IA? Metà delle aziende finirà per riassumere

Secondo Forrester, il 50% dei licenziamenti attribuiti all’IA sarà presto annullato. Molte aziende riassumeranno le stesse figure, ma all’estero o con stipendi più bassi.  »

Francesco Destri // 05.11.2025
Prime scaramucce tra Agenti AI: Amazon non vuole che Perplexity faccia acquisti per conto degli utenti

Prime scaramucce tra Agenti AI: Amazon non vuole che Perplexity faccia acquisti per conto degli utenti

Amazon ha invitato una diffida a Perplexity per fermare Comet, il browser IA capace di acquistare autonomamente prodotti sul sito. Lo scontro apre un nuovo fronte tra e-commerce e IA agentica.  »

Francesco Destri // 05.11.2025
L’IA usata da 1,2 miliardi di persone (e 10 milioni sono italiani): i dati dell’AI Diffusion Report di Microsoft

L’IA usata da 1,2 miliardi di persone (e 10 milioni sono italiani): i dati dell’AI Diffusion Report di Microsoft

L'Italia registra un tasso di diffusione dell'IA del 25,8% tra la popolazione in età lavorativa, ma restano limiti infrastrutturali e formativi.  »

Francesco Destri // 04.11.2025
OpenAI prenota 38 mld$ in risorse cloud da AWS. Ma dove troverà i soldi? Si pensa all’ADV

OpenAI prenota 38 mld$ in risorse cloud da AWS. Ma dove troverà i soldi? Si pensa all’ADV

OpenAI sigla un’intesa da 38 miliardi di dollari con AWS, affiancando Microsoft Azure per soddisfare la crescente domanda di potenza di calcolo. Ma dove troverà i soldi?  »

Francesco Destri // 04.11.2025
Affinity, concorrente di Adobe CS, diventa gratuito. Si pagano solo i tool AI forniti da Canva

Affinity, concorrente di Adobe CS, diventa gratuito. Si pagano solo i tool AI forniti da Canva

La nuova app di Affinity firmata Canva unisce grafica vettoriale, fotoritocco e impaginazione in un’unica piattaforma gratuita (IA esclusa) e professionale.   »

Francesco Destri // 03.11.2025
Deepfake e disinformazione sui social tra risposte normative e tecnologiche

Deepfake e disinformazione sui social tra risposte normative e tecnologiche

Mentre la Commissione Europea prepara lo European Democracy Shield per rilevare e contrastare minacce ibride e deepfake, Sony rafforza la verifica dell’autenticità video.  »

Francesco Destri // 31.10.2025
L’impatto della GenAI sulla produttività di PA e imprese italiane in due studi di Google e IBM

L’impatto della GenAI sulla produttività di PA e imprese italiane in due studi di Google e IBM

La diffusione della GenAI potrebbe generare fino a 11 miliardi di euro di valore per la PA italiana nei prossimi dieci anni, migliorando produttività, servizi e competenze digitali.  »

Francesco Destri // 31.10.2025
Pagina 1 di 87
Condividi