Kineska kompanija za razvoj veštačke inteligencije DeepSeek objavila je svoj najnoviji "eksperimentalni" model za koji tvrdi da je efikasniji u učenju i bolji u obradi dugih nizova teksta od prethodnih verzija njenih velikih jezičkih modela.
Kompanija sa sedištem u Hangdžouu nazvala je DeepSeek-V3.2-Exp "međukorakom ka našoj arhitekturi sledeće generacije" u objavi na forumu za programere Hugging Face.
Ova arhitektura bi mogla biti najvažnije izdanje DeepSeek-ovih proizvoda još od kada su modeli V3 i R1 iznenadili Silicijumsku dolinu i tehnološke investitore van Kine.
Model V3.2-Exp uključuje mehanizam nazvan DeepSeek Sparse Attention, za koji kineska kompanija tvrdi da može smanjiti troškove računanja i poboljšati performanse određenih tipova modela. DeepSeek je u ponedeljak na platformi X objavio da snižava cene API-ja za „više od 50 odsto“.
Iako je malo verovatno da će arhitektura sledeće generacije DeepSeeka izazvati potres na tržištu kao što su to učinile prethodne verzije u januaru, i dalje bi mogla da izvrši snažan pritisak na domaće konkurente poput Alibabinog Qwena, kao i na američke rivale poput OpenAI-a - ukoliko ponovi uspeh DeepSeek R1 i V3.
To bi zahtevalo da model pokaže visoke sposobnosti, a da pri tome koristi tek deo resursa koje konkurenti troše i naplaćuju za obuku svojih sistema.
Izvor: N1Info