Deepseek, een Chinees AI Lab, heeft zijn AI -model opgewaardeerd Spellenontworpen om wiskunde-gerelateerde bewijzen en stellingen op te lossen, met de release van versie V2 op AI-ontwikkelingsplatform op woensdag.
De nieuwste versie lijkt te zijn gebouwd bovenop het V3-model van Deepseek, dat 671 miljard parameters heeft en een mixen-van-experts (MOE) architectuur gebruikt. Deze architectuur stelt het model in staat om complexe taken af te breken in subtaken en deze af te delegeren aan gespecialiseerde “expert” -componenten.
In de context van AI-modellen zijn parameters een ruwe maat voor de probleemoplossende mogelijkheden van een model. Diepeek Laatst bijgewerkte Prover in augustus en beschrijft het als een aangepast model voor formele stelling en wiskundig redeneren.
De upgrade komt terwijl Deepseek zijn AI -aanbod blijft uitbreiden. In februari meldde Reuters dat het bedrijf overweeg om voor het eerst externe financiering op te halen. Onlangs heeft Deepseek een verbeterde versie van zijn algemene V3-model uitgebracht en zal het naar verwachting zijn R1-“redeneermodel binnenkort bijwerken.