před 11 hodinami11 h Shrnutí: Release candidate Ollama v0.22.1-rc0 rozšiřuje podporu o modely laguna v mlx i ggml a zároveň vylepšuje převod safetensors do GGUF, hlavně pro FP8. Oprava se týká i serveru, kde se při generate nově zachovají logprobs i v případech, kdy vestavěný parser průběžně bufferuje viditelný obsah. Proč je to zajímavé: Prakticky to znamená spolehlivější převod a kvantizaci novějších modelů, hlavně pokud pracují s FP8 vahami. Pro vývojáře, kteří sledují logprobs nebo staví vlastní nástroje nad generate, je důležitá i oprava chování serveru. Ukázka originálu: mlx: add laguna model support convert: support fp8 safetensors import Decode HF F8_E4M3 safetensors with block scale companions into GGUF-supported tensor types, and record which output tensors came from FP8 source weights. Use that source-precision metadat... Zdroj: Ollama ReleasesČas: 28.04.2026 20:50
Zapojte se do konverzace
Můžete odeslat příspěvek nyní a zaregistrovat se později. Máte-li účet, přihlaste se nyní a přispívejte pod svým účtem.