La startup cinese DeepSeek guidata da Liang Wenfeng sembrerebbe nuovamente pronta a rivoluzionare il settore dell’intelligenza artificiale. Dopo aver scosso Silicon Valley all’inizio del 2025 con alcuni LLM molto competitivi, starebbe ora sviluppando una nuova generazione di modelli auto-miglioranti implementati con una tecnica che prende il nome di GRM (Generative Reward Modeling).
Cosa รจ il Self-Principled Critique Tuning di DeepSeek
DeepSeek ha introdotto il metodo SPCT (Self-Principled Critique Tuning) in collaborazione con ricercatori dell’Universitร di Tsinghua. Esso consente all’AI di valutare e migliorare il proprio comportamento seguendo le preferenze umane e riducendo i costi. I nuovi modelli cosรฌ ottenuti, chiamati DeepSeek-GRM, saranno rilasciati sotto licenza open source, come giร accaduto con le versioni precedenti.
A questo proposito DeepSeek-GRM avrebbe superato concorrenti come Google Gemini 1.5 Pro, Meta Llama 3.1 e OpenAI GPT-4o in numerosi benchmark. Un risultato sorprendente considerando il budget contenuto con cui l’azienda sviluppa i propri sistemi sfidando l’idea che siano necessari miliardi di dollari per competere nel campo dell’AI.
Modelli generativi avanzati a prezzi contenuti
DeepSeek ha giร ottenuto alcuni risultati notevoli grazie all’uso del MoE (Mixture of Experts), un approccio che migliora l’efficienza dei modelli dividendo i compiti tra reti neurali specializzate. La stessa tecnica รจ stata adottata da Meta nei suoi nuovi Llama 4 Maverick e Scout. Secondo alcune indiscrezioni, il prossimo LLM DeepSeek R2 potrebbe arrivare giร a maggio
La societร รจ diventata molto popolare nei primi mesi del 2025, quando il suo chatbot superรฒ ChatGPT per popolaritร su App Store e Google Play. Questo boom ha ridimensionato drasticamente la percezione della superioritร occidentale nel settore AI e fatto crollare a suo tempo il valore di mercato di aziende come Nvidia per un totale di circa mille miliardi di dollari.