DeepSeek v4 costa meno ed è molto efficiente, ma per gli USA viola la proprietà intellettuale

C’è un documento del Dipartimento di Stato USA che circola in queste ore nelle cancellerie di mezzo mondo e che vuole portare all’attenzione dei governi stranieri le presunte campagne sistematiche di estrazione e distillazione non autorizzate dei modelli AI americani da parte di aziende cinesi. Il documento, visionato da Reuters, cita esplicitamente DeepSeek, Moonshot AI e MiniMax come attori coinvolti in queste operazioni.
Il processo di distillazione in ambito IA consiste nell’addestrare modelli più piccoli e meno costosi utilizzando gli output generati da sistemi proprietari di grande scala, riproducendone di fatto le capacità senza affrontare gli investimenti che quei sistemi hanno richiesto. Applicata in modo non autorizzato, la distillazione diventa una forma di appropriazione indebita della ricerca, dei dati e dei costi sostenuti dai laboratori AI originali. OpenAI aveva già sollevato la questione a febbraio, avvertendo il Congresso americano che DeepSeek stava prendendo di mira ChatGPT e altri modelli statunitensi per replicarli e incorporarli nel proprio ciclo di addestramento.
Il documento del Dipartimento di Stato porta questa accusa a un livello superiore, trasformandola da disputa commerciale in tema di sicurezza nazionale. Il documento specifica infatti che i modelli sviluppati attraverso campagne di distillazione non autorizzate “sembrano offrire prestazioni comparabili su specifici benchmark a una frazione del costo, ma non replicano le prestazioni complete del sistema originale”. Fin qui si potrebbe parlare di sleale concorrenza, ma queste campagne, secondo il documento, “eliminano deliberatamente i protocolli di sicurezza dai modelli risultanti e annullano i meccanismi che garantiscono la neutralità ideologica e l’orientamento alla verità dei sistemi originali”.
La risposta cinese e il lancio di DeepSeek V4
Pechino ha respinto le accuse con fermezza. L’Ambasciata cinese a Washington ha definito le accuse “infondate e attacchi deliberati allo sviluppo cinese nel settore AI”, ribadendo una posizione che il governo cinese mantiene invariata da mesi. DeepSeek, dal canto suo, ha già sostenuto in passato come il proprio modello V3 si basasse su dati raccolti tramite web crawling, senza utilizzo intenzionale di dati sintetici generati da OpenAI.
Proprio mentre esplodeva la polemica diplomatica, DeepSeek ha lanciato il 25 aprile una preview del suo modello V4, ottimizzato specificamente per i chip Huawei. Un gesto che, indipendentemente dalle intenzioni, mostra come la Cina stia costruendo un ecosistema AI progressivamente autonomo dall’hardware occidentale, riducendo la dipendenza dai processori NVIDIA su cui si reggono i principali laboratori AI americani. Per di più, i modelli DeepSeek rimangono tra i più scaricati sulle piattaforme open source internazionali, nonostante il divieto di utilizzo imposto da numerosi governi occidentali e asiatici per ragioni di privacy dei dati.
Oltre alle implicazioni geopolitiche (il mese prossimo Donald Trump incontrerà a Pechino Xi Jinping) , il documento solleva una questione che riguarda direttamente chi costruisce o acquista sistemi AI in ambito enterprise. Se modelli apparentemente performanti vengono distribuiti dopo aver rimosso i guardrail di sicurezza incorporati nei sistemi originali, il rischio è un’azienda che che integra questi modelli nei propri flussi di lavoro potrebbe trovarsi esposta a comportamenti imprevedibili, o a vulnerabilità deliberatamente introdotte nella catena di addestramento.
È un tema che la comunità della sicurezza informatica discute da tempo, ma che acquista ora una dimensione istituzionale nuova. Il fatto che il Dipartimento di Stato abbia scelto di affrontarlo attraverso la rete diplomatica globale, piuttosto che limitarsi a dichiarazioni pubbliche, segnala che Washington considera questa minaccia sufficientemente concreta da richiedere una risposta coordinata tra alleati prima ancora che si arrivi a misure normative formali.
(Immagine in apertura: Shutterstock)

