Un petaflop. Sulla scrivania. Un anno fa sembrava fantascienza, oggi è un prodotto che puoi ordinare su Amazon. NVIDIA ha appena cambiato le regole del gioco per l'AI on-premises, e se lavori con modelli linguistici di grandi dimensioni, questa è una notizia che ti riguarda direttamente.
Parlo del DGX Spark, il sistema che NVIDIA ha presentato al CES 2025 come "Project DIGITS" e che da qualche mese è disponibile per l'acquisto. Ma parlo anche di quello che arriva nella primavera 2026: il DGX Station, un mostro con 784GB di memoria che può eseguire modelli da un trilione di parametri. Sì, hai letto bene. Un trilione.
Perché ne parlo? Perché DocZoom gira su questi processori. E perché per la prima volta nella storia dell'AI, la potenza di calcolo che fino a ieri richiedeva un data center ora sta in una scatola grande come un Mac Studio.
Nota editoriale: disponibilità commerciale e pricing hardware sono riferiti alle informazioni pubbliche disponibili al 12 febbraio 2026.
DGX Spark: Il Supercomputer da Scrivania
Parliamoci chiaro: quando NVIDIA dice "supercomputer personale" non sta esagerando. Al cuore del DGX Spark c'è il GB10 Grace Blackwell Superchip, un processore che combina 20 core ARM (10 ad alte prestazioni, 10 efficienti) con una GPU Blackwell di quinta generazione.
I numeri sono impressionanti:
1 petaflop di performance AI a precisione FP4. Per contestualizzare: nel 2016 serviva un intero data center per raggiungere questa potenza. Ora sta in 240 watt di consumo.
128GB di memoria unificata. Questo è il punto chiave. CPU e GPU condividono lo stesso spazio di indirizzamento, eliminando i colli di bottiglia del trasferimento dati. Tradotto: puoi caricare modelli come Llama 3.1 70B o Qwen 72B direttamente in memoria, senza compromessi.
4TB di storage SSD. Abbastanza per tenere in locale tutti i tuoi modelli e dataset senza dipendere dalla rete.
Ho un cliente — una media azienda manifatturiera del Nord Italia — che sta valutando il DGX Spark per processare la documentazione tecnica di prodotto. Parliamo di manuali, schede tecniche, certificazioni. Fino a ieri avevano due opzioni: mandare tutto in cloud (con tutti i problemi di privacy che ne conseguono) o accontentarsi di modelli più piccoli che girano su hardware consumer. Con il DGX Spark possono far girare modelli da 70 miliardi di parametri in locale, sui loro documenti, nella loro rete. Nessun dato esce dall'azienda.
Fine-Tuning Locale: La Vera Rivoluzione
C'è un aspetto che molti sottovalutano: il DGX Spark non è solo per l'inferenza. Con 128GB di memoria unificata, puoi fare fine-tuning di modelli fino a 70 miliardi di parametri direttamente sulla tua scrivania.
Cosa significa in pratica? Che puoi prendere un modello open-source come Llama, Mistral o Qwen e addestrarlo sui tuoi documenti aziendali specifici. Non un adattamento generico fatto da qualcun altro, ma un modello che conosce il tuo gergo, i tuoi processi, i tuoi clienti.
Secondo LMSYS, i benchmark mostrano che il DGX Spark gestisce inferenza a velocità comparabili con soluzioni cloud, ma con il vantaggio critico della latenza locale. Zero dipendenza dalla rete. Zero variabilità nei tempi di risposta. E soprattutto, zero dati che viaggiano verso server esterni.
DGX Station: Il Futuro Arriva nella Primavera 2026
Se il DGX Spark ti sembra impressionante, preparati al DGX Station. NVIDIA l'ha annunciato insieme allo Spark, ma sarà disponibile solo nella primavera del 2026. Ed è un salto generazionale.
Il cuore è il GB300 Grace Blackwell Ultra Superchip — il primo chip di questa classe progettato per un desktop. Le specifiche fanno girare la testa:
784GB di memoria coerente. Non è un errore di battitura. Quasi 800 gigabyte di RAM, condivisi tra CPU e GPU con tecnologia NVLink-C2C. Questo significa modelli fino a un trilione di parametri che girano in locale.
ConnectX-8 SuperNIC integrato per accelerare carichi di lavoro distribuiti. Significa che puoi collegare più DGX Station in cluster per progetti ancora più ambiziosi.
Multi-Instance GPU (MIG) che permette di partizionare il sistema in fino a sette istanze separate. Un team di sviluppatori può lavorare simultaneamente sullo stesso hardware, ognuno con il proprio ambiente isolato.
I modelli supportati? DeepSeek-V3.2, Mistral Large 3, Meta Llama 4, Qwen3 e persino modelli da OpenAI come gpt-oss-120b. Tutti in locale. Tutti sotto il tuo controllo.
Perché Questo Cambia Tutto per DocZoom
Facciamo un passo indietro. DocZoom è nato con un'idea chiara: portare l'AI documentale dove i dati vivono, non il contrario. Fino a ieri questo significava server dedicati, configurazioni complesse, costi importanti.
Con il DGX Spark e il DGX Station, lo scenario cambia radicalmente.
Per le PMI: un DGX Spark può essere il cuore di un sistema DocZoom completo. Estrazione intelligente da documenti, classificazione automatica, ricerca semantica, generazione di risposte — tutto in un dispositivo che sta sulla scrivania dell'IT manager.
Per le aziende enterprise: il DGX Station diventa il nodo centrale per team che lavorano su grandi volumi documentali. Uno studio legale con migliaia di pratiche. Una banca con decenni di contratti. Un'assicurazione con milioni di polizze. Tutto processabile in locale, con modelli enormi che capiscono davvero il contesto.
Per chi ha esigenze di compliance: la combinazione hardware NVIDIA + software DocZoom elimina ogni ambiguità sul trattamento dei dati. I documenti non escono mai dalla tua infrastruttura. Non c'è nessun fornitore terzo che accede ai contenuti. L'audit trail è completo e sotto il tuo controllo.
Il Costo dell'AI On-Premises Non È Più un Problema
Quante volte l'ho sentita, questa obiezione? "L'on-premises costa troppo." Era vero, fino a ieri.
Il DGX Spark ha un prezzo intorno ai 3.000 dollari. Per un sistema che offre un petaflop di calcolo AI, 128GB di memoria unificata e la possibilità di far girare modelli che prima richiedevano abbonamenti cloud da migliaia di dollari al mese.
Facciamo due conti. Un'azienda che usa API cloud per processare documenti con modelli GPT-4 class paga facilmente 2-3.000 dollari al mese per volumi significativi. In un anno parliamo di 25-35.000 dollari. In scenari ad alto utilizzo, il DGX Spark può avere tempi di rientro molto rapidi. Dopodiché, il costo operativo è soprattutto legato a elettricità e manutenzione.
E con il DGX Station? Per chi ha bisogno della potenza di modelli da centinaia di miliardi di parametri, il confronto con i costi cloud diventa ancora più favorevole. Senza contare il valore incalcolabile della sovranità sui dati.
La Roadmap: Cosa Aspettarsi
Se stai pianificando l'infrastruttura AI della tua azienda, ecco il mio consiglio.
Oggi: il DGX Spark è già disponibile attraverso partner come Micro Center, Amazon e altri. È la scelta giusta per chi vuole iniziare subito con modelli fino a 70-200 miliardi di parametri.
Primavera 2026: il DGX Station sarà disponibile da ASUS, Dell, HP, Lenovo, MSI e altri. Se hai esigenze che richiedono modelli più grandi o team multipli sullo stesso hardware, vale la pena aspettare.
DocZoom è già ottimizzato per entrambe le piattaforme. Il nostro stack software sfrutta nativamente le capacità del Grace Blackwell, dalla memoria unificata ai Tensor Cores di quinta generazione. E quando arriverà il GB300, saremo pronti dal primo giorno.
Hoplo è NVIDIA Connect Partner
C'è un aspetto che voglio sottolineare: Hoplo non è semplicemente un'azienda che usa hardware NVIDIA. Siamo NVIDIA Connect Partner, parte del programma ufficiale di partnership che NVIDIA riserva alle aziende che sviluppano soluzioni innovative sulla loro piattaforma.
Cosa significa in pratica? Accesso anticipato alle nuove tecnologie, supporto tecnico diretto da NVIDIA, certificazione delle nostre soluzioni sull'hardware Grace Blackwell. Quando diciamo che DocZoom è ottimizzato per DGX Spark e DGX Station, non è marketing: è il risultato di un lavoro congiunto con il team NVIDIA.
Per i nostri clienti, questa partnership si traduce in garanzie concrete: compatibilità testata e certificata, performance ottimizzate, aggiornamenti tempestivi quando escono nuove versioni hardware o software. Non stiamo improvvisando — stiamo costruendo su fondamenta solide.
La Domanda Fondamentale
Il vero cambiamento non è nei gigahertz o nei teraflop. È nel fatto che per la prima volta puoi avere potenza di calcolo AI di classe enterprise sulla scrivania, senza compromessi sulla privacy e con costi prevedibili.
La domanda non è più "posso permettermi l'AI on-premises?" La domanda è: "posso permettermi di non averla?"
Se stai valutando infrastruttura e sizing, usa la pagina Tecnologia come base e poi apri un confronto tecnico da Contatti.



