Il modello TinyZero mette già in discussione DeepSeek?
Il modello sperimentato dall’Università di Berkley sembrerebbe già poter sfidare la startup cinese, in quanto generato con un costo esiguo di 30 dollari e testato tramite il gaming del quiz CountDown

Si è inneggiato alla rivoluzione con vista futuro – degli andamenti delle industrie, della geopolitica – quando qualche giorno fa la startup cinese DeepSeek ha lanciato la versione aggiornata della sua chatbot, DeepSeek-R1. Un’estensione del server capace di fare tutto quello che fanno già i sistemi AI dei giganti – come Microsoft, Meta e Open AI – ma al minor costo, con un numero otto volte minore di chip impiegati, e soprattutto, in formato open-source.
La startup di Lian Wenfeng è un’opera aperta: il nuovo terreno della ridiscussione che non si accontenta più dell’esercizio del prompting, ma dà all’utente la possibilità di rinegoziare di continuo le sue stesse verità. “È un cambiamento di paradigma verso il ragionamento, che sarà molto più democratizzato”, ha detto Ali Ghodsi, AD di Databricks, specializzata negli hosting dei modelli AI personalizzati.
E DeepSeek-R1 crede nel trionfo della personalizzazione, per una chatbot che si avvicina all’utente con la stessa prorompenza con cui provoca il peggior crollo in borsa degli avversari nel recente passato. Su tutti, il titolo di Nvidia – azienda statunitense forte del 90 per cento circa del mercato dei microchip usati per l’AI – che è calato repentinamente del 17 per cento con una perdita di 600 miliardi. Meno ingenti, ma comunque indicativi i ribassi dei titoli di Alphabet, Meta e Microsoft (tra il 2 e il 4 per cento).
DeepSeek-R1 ha stravolto le carte in tavola, destato la Silicon Valley dal sonno della supremazia nel campo AI, e già rischia di compromettere il sogno trump-muskiano del progetto Stargate. I colossi statunitensi si vedono costretti a cambiare rotta per riguadagnare il primato sulla startup cinese che ora fa così paura.
Ma è davvero un unicum l’opera aperta di Lian Wenfeng? Il gruppo di ricerca dell’Università di Berkeley, guidato dal dottorando Jiayi Pan, sembra aver dimostrato proprio il contrario, sfruttando le stesse armi di DeepSeek-R1: presentare un motore di reinforcement learning, dal nome TinyZero, di immediato impatto e soprattutto open-source, capace di replicare il modello della startup cinese, al costo, mai così esiguo, di 30 dollari.
La democratizzazione dell’AI tocca i massimi storici con TinyZero, che testa anzitutto nel gaming la sua capacità di ragionamento numerico. Il team di Berkley, infatti, ha addestrato il modello nel sistema del quiz televisivo Countdown: si tratta di dare un numero target al giocatore (ad esempio 100) e sei numeri che il concorrente deve usare per arrivare a 100 – che sia con addizioni, sottrazioni, moltiplicazioni o divisioni – nel minor tempo possibile.
Secondo i risultati del team di Berkley riportati nella rivista Notizie AI i risultati di questo modello sarebbero già evidenti quanto significativi di una nuova frontiera della comunicazione AI.
In primo luogo, aumenta la qualità del modello di base per un processo che vede la crescita della capacità di auto-verifica con il progressivo incremento delle dimensioni del motore. Tradotto: TinyZero vede potenziare le sue risorse linguistiche e numeriche proprio nella ripetizione (il processo iterativo appunto) dei suoi dati e dei suoi calcoli. A questo serve l’ausilio di Countdown d’altronde; dare al motore un imput numerico e testare la sua capacità di scomporlo in tante piccole unità.
Alla luce della ricerca del gruppo di Jiayi Pan il formato di DeepSeek-R1 ha ancora ragione di spaventare così tanto i colossi statunitensi?
Forse no, o almeno non nella misura di un crollo ancora più drastico in borsa. Di certo, la startup di Lian Wenfeng ha tracciato un nuovo intrigante cammino per l’industria AI, l’inizio di un modello che auto-alimenta le sue risorse mentre elabora i dati; l’alba di un server di tutti, un modello, dunque che assomiglia tanto alle forme di un’opera aperta.