v pátek v 16:322 dny Shrnutí: Hugging Face vydal Transformers 5.8.0, kde hlavní novinkou je podpora modelů DeepSeek-V4. Implementace zahrnuje varianty DeepSeek-V4-Flash, DeepSeek-V4-Pro i jejich předtrénované verze Base, které sdílejí stejnou architekturu, ale liší se velikostí a počtem expertů. Proč je to zajímavé: Pro vývojáře a týmy, které staví na Transformers, to znamená jednodušší přístup k novým modelům DeepSeek bez vlastních integrací. Prakticky to může zrychlit testování i nasazení různých variant podle výkonu, latence nebo hardwarových možností. Ukázka originálu: Release v5.8.0 New Model additions DeepSeek-V4 DeepSeek-V4 is the next-generation MoE (Mixture of Experts) language model from DeepSeek that introduces several architectural innovations over DeepSeek-V3. The architecture replaces Multi-head Latent Attention... Zdroj: Hugging Face Transformers ReleasesČas: 05.05.2026 18:52
Zapojte se do konverzace
Můžete odeslat příspěvek nyní a zaregistrovat se později. Máte-li účet, přihlaste se nyní a přispívejte pod svým účtem.