DeepSeek accelera: costi inferiori, più contesto e un rivale scomodo per OpenAI

Ultimo aggiornamento: 02/10/2025

  • Rilasciato DeepSeek-V3.2-Exp, un passo intermedio verso la sua prossima architettura
  • Nuovo meccanismo DeepSeek Sparse Attention per contesti lunghi e calcoli più complessi
  • Disponibile su app, web e API con una riduzione di prezzo di oltre il 50%.
  • Pressione competitiva e adattamento ai chip cinesi, con il supporto dell'FP8 e il lavoro su BF16
DeepSeek V3.2-Exp

Costruita su V3.1-Terminale, il nuovo modello DeepSeek V3.2-Exp introduce un approccio di attenzione dispersa che mira a ridurre il carico di elaborazione senza sacrificare la qualità. Secondo l'azienda, I prezzi delle API scendono di oltre il 50% con effetto immediatoe accesso Ora è disponibile nella tua app, sul web e tramite API, oltre ad essere offerto nel formato di open source su piattaforme di sviluppo come Abbracciare il viso.

Innovazioni tecniche: attenzione dispersa e contesto lungo

Tecnologia di attenzione sparsa nei modelli di intelligenza artificiale

Il cuore di questo aggiornamento è Attenzione sparsa DeepSeek (DSA), un meccanismo che dà priorità alle parti rilevanti del contesto per elaborarle in modo più accurato. L'azienda descrive in dettaglio l'uso di un Indicizzatore Lightning che seleziona frammenti chiave e un processo di “selezione di token a grana fine”, con l'obiettivo di coprire ampie finestre di contesto e gestire più linee di pensiero contemporaneamente con un minore sovraccarico di informazioni.

Contenuti esclusivi: clicca qui  Iconic Voice Marketplace: ElevenLabs apre il suo marketplace per le voci delle celebrità

Questo approccio persegue miglioramenti sia nella formazione che nell'inferenza, velocizzando i tempi e riducendo il consumo di memoria. DeepSeek indica che le sue versioni più recenti sono già sostenere FP8 e stiamo lavorando sulla compatibilità con BF16, formati numerici che aiutano a bilanciare velocità e precisione e che rendono più facile esecuzione su hardware locale.

L'azienda sottolinea che si tratta di un lancio, cioè di un terreno di prova che anticipa la sua architettura di prossima generazione. Tuttavia, la sua test interni Sottolineano che la versione V3.2-Exp (la versione sperimentale) ha prestazioni pari a quelle della V3.1-Terminus in attività quali agenti di ricerca, codifica o matematica, con l'ulteriore vantaggio dell'efficienza in scenari di lungo contesto.

Oltre alla parte tecnica, la disponibilità è ampia: il modello può essere testato nel App, il web e l'API dell'azienda. Il Sconto (oltre il 50%) mira ad accelerare l'adozione da parte dei team di prodotto e dei reparti di ingegneria che cercano di ridurre i costi operativi.

Contenuti esclusivi: clicca qui  Guida completa all'utilizzo di Google Gemini su iPhone

Sul fronte comunitario, l'apertura in Hugging Face e GitHub Consente a ricercatori e sviluppatori di verificare, riutilizzare e proporre miglioramenti, rafforzando il profilo di DeepSeek nell'ecosistema. Intelligenza artificiale open source.

Impatto del mercato e impulso geopolitico

Ecosistema di intelligenza artificiale e competizione tra modelli

Sebbene non si preveda che questo passo sconvolga i mercati come ha fatto R1 e V3 all'inizio dell'anno, V3.2-Exp può mettere pressione ai rivali nazionali come Qwen (Alibaba) e concorrenti americani come OpenAI, Antropico o xAI. La chiave sarà dimostrare alte prestazioni a costi inferiori, un fattore particolarmente sensibile per le grandi implementazioni di intelligenza artificiale.

Il lancio avviene in un contesto complesso: diversi paesi hanno limitato l'uso di DeepSeek nelle agenzie governative (tra cui Italia, Stati Uniti e Corea del Sud), citando problemi di sicurezza. Queste restrizioni costringono l'azienda a rafforzare la sua governance e garanzie se vuoi ottenere una presenza istituzionale.

Nel settore industriale, la Cina sta spingendo le sue aziende tecnologiche a ridurre la dipendenza dai semiconduttori esteri. Controlli sulle esportazioni statunitensi sui chip Nvidia (come Blackwell) e restrizioni aggiuntive, ad esempio, su RTX Pro 6000—, DeepSeek afferma di collaborare con i produttori di chip cinesi per ottimizzare il suo esecuzione su hardware localeIn questa linea, il settore ha indicato il sostegno di Huawei all'ultimo aggiornamento del modello.

Contenuti esclusivi: clicca qui  Creare calcestruzzo con l'intelligenza artificiale: un nuovo approccio per infrastrutture più sostenibili e resilienti

Se il modello riesce a mantenere le sue prestazioni con la metà dei costi operativi, casi d'uso con documenti lunghi, lunghe chiacchierate o impegnative attività analitiche potrebbero trarne particolare beneficio. Per molte aziende, la combinazione efficienza + prezzo È decisivo quanto qualche punto in più nei benchmark.

L'approccio di DeepSeek combina apertura, efficienza e disponibilità immediata con una roadmap che promette un'architettura più efficiente. Se l'azienda consolida le riduzioni dei costi mantenendo il livello dimostrato da V3.1-Terminus, Il nuovo modello potrebbe diventare un punto di riferimento pratico per l'implementazione dell'intelligenza artificiale generativa su larga scala senza far salire alle stelle i costi.Vedremo se DeepSeek riuscirà a far sì che l'efficienza non sia più un'aspirazione tecnica, ma un reale vantaggio competitivo per aziende e sviluppatori.

Ricerca profonda in VS Code
Articolo correlato:
Come usare DeepSeek in Visual Studio Code