• DigitalWorld
    • Data & AI
      • Applicazioni Big Data
      • Big Data Analytics
      • Infrastruttura Big Data
      • Intelligenza Artificiale
    • Hardware
      • PC Windows
      • Apple Mac
      • Notebook
      • PC Linux
      • Chrome OS
      • Server
      • Periferiche PC
      • Dischi SSD
      • Processori PC e server
      • Stampa 3D
      • Internet of Things
      • Mobile & Wireless
        • Computer indossabili
        • 5G
        • Android
        • App Mobile
        • Apple iOS
        • BlackBerry
        • BYOD
        • Mobile Device Management (MDM)
        • Pagamenti Mobile
        • Sicurezza Mobile
        • Smartphone
        • Tablet
        • TLC e Internet Provider
        • Windows Phone
      • Multimedia Pro
        • Audio
        • Grafica
        • Video editing
      • Tecnologia personale
    • SOFTWARE
      • Blockchain
      • Realtà Virtuale
      • App Desktop
      • Office
      • Architettura Enterprise
      • Database
      • Gestionali
      • Business Intelligence (BI)
      • CRM
      • ERP
      • Content/Document Management
      • Unified Communications (UC)
      • Open Source
      • Software as a Service (SaaS)
      • Software di Collaborazione
      • Integrazione di servizi
      • Sviluppo App
      • Sviluppo software
        • App
        • DevOps
        • Enterprise
        • Intranet
        • Software Desktop
        • Web
      • Sistemi operativi
        • Windows
        • Windows 11
        • macOS
        • Linux
        • Chrome OS
      • Gamification
    • Infrastruttura
      • Cloud Computing
        • Cloud ibrido
        • Cloud Privato
        • Cloud Pubblico
        • Cloud Storage
        • Sicurezza Cloud
        • Edge Computing
      • Data Center
        • Disaster Recovery
        • Gestione infrastruttura
        • Green IT
        • High Performance Computing (HPC)
        • Mainframe
        • Storage
        • Virtualizzazione
        • Quantum Computing
      • Networking
        • Broadband
        • Hardware di Rete
        • LAN & WAN
        • Reti Wireless
        • Sicurezza di Rete
        • Software Defined Networking
        • Software di Rete
        • Wi-Fi 6
    • INTERNET
      • Applicazioni Web
      • Browser Web
      • E-commerce
      • Marketing Online
      • Ricerca
      • Social Media
      • Servizi di localizzazione
      • Metaverso
    • SICUREZZA
      • Trusted Cybersecurity
      • Cifratura
      • Compliance e Regolamenti
      • Cybercrimine & Hacking
      • Cyberwarfare
      • Disaster Recovery e Business Continuity
      • Endpoint Security
      • Malware & Vulnerabilità
      • Privacy
      • Sicurezza Applicazioni
      • Sicurezza dei Dati
    • Attualità
      • Norme e regolamenti
      • Sovranità Digitale
  • Digital Manager
    • Management IT
      • Organizzazione IT
      • Carriere IT
      • Personale IT
      • Project Management IT
      • Skill IT e Formazione
    • Procurement
      • Outsourcing
    • Digital Transformation
      • Trasformazione nell’IT
    • Leadership
      • Il ruolo del CIO
      • CIO Club Italia
    • Normativa IT
      • Sovranità Digitale
  • DigitalPartner
    • Canale it
      • Canale Cloud
      • Distribuzione
      • VAR e system integrator
    • Eventi
    • Certificazioni
    • Industria IT
      • Nomine
    • Mercato
    • Strategie di canale
  • CWI Digital Health – Home
    • Software
      • App per la sanità
      • Ricerca medica e big data
    • Hardware
      • Protesi
      • Robotica operatoria
      • Robotica riabilitativa
      • Sensori e Wearable sanitari
    • Bioingegneria
      • Genomica
    • Diagnostica
    • Terapia
      • Medicina Personalizzata
      • Telemedicina
DigitalWorld Italia
  • Newsletter
  • Webinar
  • Video
  • White Paper
  • Attualità
  • Settori industriali
  • Aziende citate
Oppure
Registrati
home » hardware » pc windows
ASUS
In collaborazione con ASUS

IA in locale: la workstation giusta per lo sviluppo, la governance dei dati riservati e il contenimento dei costi

IA in locale: la workstation giusta per lo sviluppo, la governance dei dati riservati e il contenimento dei costi
Contenuto sponsorizzato
Con la GPU ASUS Turbo Radeon AI Pro R9700 e le workstation Syspack, sviluppatori, data scientist, ricercatori e AI engineer possono eseguire i modelli AI più potenti direttamente in azienda, senza cloud e senza compromessi

Indice dell'articolo

  • L’IA in locale: un’opportunità sempre più concreta
  • I fattori che determinano le prestazioni AI in locale
  • GPU ASUS Turbo Radeon AI Pro R9700: le specifiche che contano per l’AI
    • L’ecosistema software: AMD ROCm e i principali framework AI
  • Le workstation Syspack per AI

L’adozione dell’intelligenza artificiale in ambito enterprise si è a lungo appoggiata al cloud, ma questa dipendenza ha un costo, non solo economico. Per i team che sviluppano applicazioni AI, che lavorano al fine tuning di modelli su dati proprietari o che gestiscono informazioni riservate, affidarsi a infrastrutture esterne significa accettare latenze, vincoli contrattuali e di governance sulla residenza dei dati e una struttura di costi variabili che può diventare difficile da prevedere e controllare. Questo è tanto più vero nelle fasi di sviluppo e sperimentazione, quando è necessario ripetere molte volte le elaborazioni e un errore di programmazione può generare milioni di token imprevisti.

Sono diversi i casi d’uso che spingono oggi verso il calcolo AI locale: lo sviluppo di applicazioni AI che richiedono cicli di test rapidi senza chiamate verso API remote; il fine tuning di modelli o l’uso di sistemi RAG su dataset aziendali che non possono lasciare il perimetro della rete; il trattamento di dati riservati (cartelle cliniche, contratti, brevetti, codice sorgente proprietario..) per i quali il GDPR e i requisiti di compliance rendono l’elaborazione su cloud di terze parti problematica o addirittura impossibili.

Infine, il contenimento dei costi, perché una workstation ben configurata si ammortizza in pochi mesi di utilizzo intensivo, mentre un piano di abbonamento in cloud ha costi che proseguono nel tempo e aumentano con l’utilizzo.

L’IA in locale: un’opportunità sempre più concreta

Fino a qualche anno fa, l’esecuzione locale di modelli linguistici avanzati era appannaggio esclusivo di chi disponeva di cluster GPU da svariate decine di migliaia di euro e un data center in cui ospitarlo. Oggi il panorama è cambiato radicalmente.

La proliferazione di modelli open weight – da Llama a Mistral, da DeepSeek a Qwen – ha messo a disposizione della comunità tecnica modelli con capacità di ragionamento e comprensione del linguaggio paragonabili ai migliori sistemi proprietari, distribuiti con licenze che ne consentono l’uso commerciale e il riaddestramento. L’utilizzo di tecniche come la distillazione dei modelli o la riduzione della quantizzazione (il numero di bit impiegati per i calcoli in virgola mobile, ne parleremo più avanti), ha aperto la strada delle GPU locali a modelli sempre più potenti.

La proliferazione di modelli open weight ha messo a disposizione modelli con capacità di ragionamento e comprensione paragonabili ai migliori sistemi proprietari

In parallelo, la potenza delle GPU consumer e workstation ha compiuto un salto generazionale. Le architetture più recenti, come l’AMD RDNA 4 alla base della Asus Turbo Radeon AI Pro R9700, integrano acceleratori AI dedicati di seconda generazione che portano le prestazioni a livelli un tempo riservati all’hardware per datacenter.

Il risultato è che oggi una singola workstation da scrivania può eseguire modelli da 30 miliardi di parametri con fluidità sufficiente non solo per lo sviluppo e testing di progetti pilota, ma per applicazioni reali in produzione.

I fattori che determinano le prestazioni AI in locale

Per scegliere la workstation e la GPU giuste per l’AI locale è necessario chiarire quali sono i fattori e le metriche operative su cui si misurano le prestazioni di un modello e come i diversi componenti hardware influiscono su di essi.

Il numero di Token al secondo è la misura più immediata della velocità di un LLM in inferenza. Se è ovvio che una generazione maggiore è sempre preferibile, è necessario però considerare anche il tipo di applicazione. Se per la scrittura di una relazione un’attesa di qualche decina di secondi è accettabile, lo stesso non vale per applicazioni interattive come i chatbot di supporto agli utenti o le dashboard che devono elaborare dati in tempo reale.

La finestra di contesto definisce quanta “memoria” il modello può usare in una singola sessione: istruzioni di sistema, storico della conversazione, documenti di riferimento, siti web consultati… Finestre di contesto più ampie abilitano applicazioni RAG (Retrieval-Augmented Generation) su documenti lunghi e agenti AI con un’autonomia più ampia.

Le architetture RAG richiedono poi che il modello possa accedere ai dati di grounding in pochi millisecondi. La latenza dello storage e la larghezza di banda del bus tra CPU e GPU determinano quanto velocemente i documenti di contesto raggiungono il modello a ogni ciclo di inferenza.

Le prestazioni di calcolo, misurate ormai in migliaia di miliardi di operazioni al secondo (1012), distinte in T(era)FLOPS per le operazioni in virgola mobile e TOPS per le operazioni con numeri interi, determinano la velocità di inferenza su modelli completamente in memoria. Questi parametri dipendono dal tipo di architettura, dalla tecnologia di processo del chip (i “nanometri”) e dal numero di core della GPU, e influiscono direttamente sul numero di token generabili al secondo.

A sua volta, però, il numero di operazioni al secondo dipende da quanto sono grandi o precisi (in termini di bit impiegati), i valori sottoposti ai calcoli. Abbassando la precisione da 32 bit o 16 per numeri in virgola mobile, o addirittura 8 o 4 bit per numeri interi, i calcoli vengono eseguiti più velocemente. Il prezzo da pagare è che il modello diventa meno accurato nei suoi output e aumenta il rischio di incorrere nelle cosiddette allucinazioni dell’AI. Il processo di riduzione della precisione numerica è chiamato quantizzazione, e viene indicato con sigle come FP32, FP16, INT8, INT4 a indicare rispettivamente numeri in virgola mobile a 32 o 16 bit e numeri interi a 8 o 4 bit.

La dimensione della memoria video (VRAM) è forse il fattore più critico, perché non solo influisce sulle prestazioni, ma determina quali modelli è possibile eseguire e quali no. Un modello AI deve risiedere interamente in VRAM per girare alla velocità massima, e per questo motivo vengono prodotti in diverse dimensioni, in termini di dal numero di parametri misurati in miliardi (abbreviato nella B di Billion in inglese). Lo stesso modello può quindi esistere nelle taglie da 7B, 14B, 32B o 300B.

La dimensione della VRAM è forse il fattore più critico, perché determina quali modelli è possibile eseguire e quali no

Se si esaurisce la memoria direttamente legata alla GPU, il sistema deve scaricare parte dei dati sulla RAM di sistema (offloading), ma le prestazioni in questo caso possono calare fino all’80%, rendendo il modello di fatto inutilizzabile in molti contesti di produzione.

La dimensione della VRAM fissa anche la dimensione massima della finestra di contesto.

Anche la quantità e la velocità della RAM di sistema giocano quindi un ruolo complementare, soprattutto nelle configurazioni multi-GPU e quando si gestiscono pipeline AI con più modelli in sequenza. Una RAM capiente riduce i tempi di swap tra modelli e supporta quegli strati della pipeline AI che girano sulla CPU (preparazione dei dati, logiche condizionali, orchestrazione e altre elaborazioni).

GPU ASUS Turbo Radeon AI Pro R9700: le specifiche che contano per l’AI

La ASUS Turbo Radeon AI Pro R9700 è basata sull’architettura AMD RDNA 4 (processo a 4nm), con 4.096 stream processor, 128 acceleratori AI di seconda generazione e 64 ray accelerator, che consentono di raggiungere prestazioni di calcolo di 47,8 TFLOPS in FP32, 95,7 TFLOPS in FP16 e fino a 1.531 TOPS in INT4.

AMD Radeon AI Pro R9700

Il punto di forza centrale è la dotazione di 32GB di memoria GDDR6 su bus a 256 bit e velocità di trasferimento di 640 GB/s. Questo consente di caricare interamente in GPU modelli come DeepSeek R1 32B Q6 (circa 28GB) o Qwen 3 32B Q6, che una scheda da 16GB non riesce a gestire senza ricorrere all’offloading.

Nei benchmark con LM Studio su Windows, la R9700 supera di oltre quattro volte le prestazioni di GPU concorrenti da 16GB, anche di fascia superiore in termini di potenza pura del chip, proprio perché la dotazione abbondante di memoria elimina la penalizzazione dell’offloading.

Nei benchmark con il tool per eseguire LLM in locale Ollama su Linux, la R9700 con 32GB di VRAM ha gestito contesti fino a 80.000 token con DeepSeek R1 14B e fino a 36.000 token con DeepSeek R1 32B.

Questi parametri possono raddoppiare nei sistemi che utilizzano due GPU affiancate e configurati per utilizzare 64 GB di VRAM, permettendo quindi di lavorare con modelli e finestre di contesto più grandi (in questo caso, però, le prestazioni in termini di TFLOPS non si sommano e possono anche essere limitate dalla velocità del bus di collegamento PCIe 5.0).

Come si può immaginare, uno dei fattori critici nei sistemi con più GPU è il raffreddamento. La scheda adotta quindi diversi accorgimenti, dal pad termico a cambiamento di fase alla ventola a turbina che dirige il flusso d’aria dall’anteriore verso il retro del case, espellendo il calore direttamente all’esterno dal pannello a due slot. Questo schema mantiene temperature stabili perché le schede adiacenti non si scambiano aria calda tra loro.

L’ecosistema software: AMD ROCm e i principali framework AI

Sul piano del software specializzato per AI, la R9700 è pienamente supportata dall’ecosistema AMD ROCm dalla versione 6.4 in poi, su Ubuntu 24.04 e 22.04, RHEL 9 e 10. ROCm è il runtime open source di AMD per il calcolo GPU su Linux (l’equivalente funzionale di CUDA di Nvidia) e abilita l’uso della R9700 con i principali framework AI: PyTorch (training e inferenza, versione 2.8.0), TensorFlow, ONNX Runtime e JAX. Per il fine tuning è disponibile il supporto a FlashAttention-2.

Per gli strumenti di inferenza locale più diffusi, LM Studio funziona nativamente su Windows e Linux; llama.cpp, il runtime C++ di riferimento per modelli GGUF, è supportato sia via ROCm su Linux sia via backend Vulkan su Windows, abbassando la barriera d’ingresso per chi preferisce non configurare un ambiente ROCm completo. ComfyUI è supportato per la generazione di immagini con Stable Diffusion e Flux.1.

Le workstation Syspack per AI

Come abbiamo visto in precedenza, investire in una GPU potente e con una memoria video abbondante è un requisito necessario ma non sufficiente ad avere un sistema performante. Introdurre colli di bottiglia che non permettono alla scheda di esprimersi al massimo della sua potenza rischia di vanificare l’investimento. La competenza di chi costruisce il sistema è quindi cruciale.

Syspack Computer Italia è un assemblatore italiano attivo dal 1998 e selezionato nel programma Powered by ASUS per la sua lunga esperienza e gli standard qualitativi certificati, e che ha nel suo catalogo due workstation AI costruite attorno a una o due schede ASUS Turbo Radeon AI Pro R9700.

La workstation AI di Syspack può ospitare due Asus ASUS Turbo Radeon AI Pro R9700 senza bisogno di dispositivi di raffreddamento specifici

La workstation AI di Syspack può ospitare due Asus ASUS Turbo Radeon AI Pro R9700 senza bisogno di dispositivi di raffreddamento specifici

A poco più di 5.000 euro più IVA, la workstation a singola GPU ASUS Turbo Radeon AI Pro R9700 da 32 GB di VRAM abbina l’AMD Ryzen 9 9950X a 64GB di memoria DDR5, SSE NVMe da 2TB PCIe Gen 5.0. È la configurazione ideale per sviluppatori AI e data scientist che lavorano su modelli fino a 32 miliardi di parametri, come DeepSeek R1 32B, Qwen 3 32B o Mistral Small 24B.

La workstation a doppia GPU mantiene la stessa CPU AMD Ryzen 9 9950X ma raddoppia GPU, VRAM e storage: due ASUS Turbo Radeon R9700 per 64GB di VRAM totali, con 128GB di memoria DDR5 e SSD NVMe Gen 5.0 da 4TB, a un costo di circa 11.000 euro più IVA. Con 64GB di memoria GPU diventa possibile eseguire modelli da 70 miliardi di parametri interamente in GPU, condurre sessioni di fine tuning su dataset aziendali estesi o gestire pipeline AI multi-modello in parallelo. Il design del sistema di raffreddamento blower a due slot delle Turbo R9700 rende possibile utilizzare questa configurazione in un case workstation di dimensioni standard, senza necessità di avere soluzioni di raffreddamento specializzate.

Ogni workstation viene assemblata e testata internamente, con garanzia di 24 mesi e assistenza diretta anche post-garanzia.

Entrambe le configurazioni si possono ottenere anche nella modalità di noleggio operativo da 24 a 60 mesi e sono disponibili anche sul portale MePA per la Pubblica Amministrazione.

SCOPRI IL MODELLO ADATTO ALLE TUE ESIGENZE

 

GPUWorkstation AI
Aziende:
AMDAsus
// Data pubblicazione: 19.03.2026
Condividi
Condividi:
  • Chi siamo
  • White Paper
  • Advertising
  • Webinar e Video
  • Privacy
  • Newsletter
  • Cookie policy
  • DigitalWorld
  • TechPlus
  • DigitalManager
  • InnovareWeb
  • Quine Formazione
  • SM Strumenti Musicali
  • DigitalPartner
Quine LSWR Group
CWI è una testata giornalistica di Quine Srl, registrata presso il Tribunale di Milano al n. 5582/2022
Direzione, amministrazione, redazione, pubblicità
Via Spadolini 7 - 20141 MilanoTel. +39 02 864105Fax +39 02 72016740P.I.: 13002100157
Contatti: media.quine.itwww.quine.itquineformazione.it
Privacy
Follow Us
  • Facebook
  • Twitter
  • Linkedin
  • YouTube
© 2026 - Tutti i diritti riservati