Vše zveřejněné uživatelem AIHNED
-
Ollama v0.22.1-rc0 přidává podporu modelů laguna a upravuje práci s FP8
Shrnutí: Release candidate Ollama v0.22.1-rc0 rozšiřuje podporu o modely laguna v mlx i ggml a zároveň vylepšuje převod safetensors do GGUF, hlavně pro FP8. Oprava se týká i serveru, kde se při generate nově zachovají logprobs i v případech, kdy vestavěný parser průběžně bufferuje viditelný obsah. Proč je to zajímavé: Prakticky to znamená spolehlivější převod a kvantizaci novějších modelů, hlavně pokud pracují s FP8 vahami. Pro vývojáře, kteří sledují logprobs nebo staví vlastní nástroje nad generate, je důležitá i oprava chování serveru. Ukázka originálu: mlx: add laguna model support convert: support fp8 safetensors import Decode HF F8_E4M3 safetensors with block scale companions into GGUF-supported tensor types, and record which output tensors came from FP8 source weights. Use that source-precision metadat... Zdroj: Ollama Releases Čas: 28.04.2026 20:50
-
Modely OpenAI, Codex a Managed Agents jsou nově dostupné na AWS
Shrnutí: OpenAI zpřístupnilo své modely GPT, Codex i Managed Agents v prostředí AWS. Firmy tak mohou stavět a nasazovat AI nástroje přímo v infrastruktuře Amazonu, což může zjednodušit integraci do stávajících firemních systémů a bezpečnostních pravidel. Proč je to zajímavé: Pro firmy už běžící na AWS to může znamenat méně překážek při nasazení AI do provozu a snazší správu dat, přístupů i souladu s interními pravidly. Prakticky to může urychlit vývoj interních asistentů, automatizace i nástrojů pro programování. Ukázka originálu: OpenAI GPT models, Codex, and Managed Agents are now available on AWS, enabling enterprises to build secure AI in their AWS environments. Zdroj: OpenAI News Čas: 28.04.2026 02:00
-
NVIDIA Nemotron 3 Nano Omni přináší dlouhý kontext pro dokumenty, audio i video
Shrnutí: NVIDIA na blogu Hugging Face představila model Nemotron 3 Nano Omni zaměřený na multimodální práci s dokumenty, zvukem a videem. Hlavní důraz je na zpracování dlouhého kontextu, takže model míří na agenty a aplikace, které potřebují chápat větší objem vstupů napříč různými formáty. Proč je to zajímavé: Pro vývojáře a firmy je to zajímavé hlavně tam, kde nestačí jen textový chatbot, ale je potřeba analyzovat delší materiály, nahrávky nebo video obsah v jednom systému. Prakticky to může zjednodušit stavbu agentů pro podporu, vyhledávání informací nebo interní analýzu obsahu. Zdroj: Hugging Face Blog Čas: 28.04.2026 17:58
-
OpenAI získalo FedRAMP Moderate pro ChatGPT Enterprise a OpenAI API
Shrnutí: OpenAI oznámilo dostupnost služeb ChatGPT Enterprise a OpenAI API v režimu FedRAMP Moderate. Jde o důležitý krok pro nasazení AI ve federálních úřadech USA, kde jsou požadavky na bezpečnost, správu dat a soulad s pravidly výrazně přísnější než v běžném komerčním provozu. Proč je to zajímavé: Pro úřady a dodavatele je to prakticky signál, že OpenAI může vstoupit do citlivějších veřejných projektů, kde bez podobné autorizace často nejde AI vůbec nasadit. Zároveň to může urychlit adopci generativní AI v prostředí, kde se rozhoduje hlavně podle bezpečnostních a compliance požadavků. Ukázka originálu: OpenAI is available at FedRAMP Moderate authorization for ChatGPT Enterprise and the OpenAI API, enabling secure AI adoption for U.S. federal agencies. Zdroj: OpenAI News Čas: 27.04.2026 16:00
-
Microsoft a OpenAI upravují partnerství pro další fázi spolupráce
Shrnutí: Microsoft oznámil upravenou dohodu s OpenAI, která má zjednodušit vzájemnou spolupráci a přinést větší předvídatelnost pro obě firmy i jejich zákazníky. Podle Microsoftu má nová podoba partnerství stát na větší flexibilitě, jistotě a snaze dostat přínosy AI k širšímu okruhu uživatelů. Proč je to zajímavé: Pro firmy a vývojáře, kteří staví na službách Microsoftu a modelech OpenAI, je důležitá hlavně větší jistota do budoucna. Pokud se vztah obou firem stabilizuje, může to snížit nejistotu kolem dostupnosti technologií, integrací i obchodních podmínek. Ukázka originálu: Amended Agreement Provides Long-Term Clarity The rapid pace of innovation requires us to continue to evolve our partnership to benefit our customers and both companies. Today, we are announcing an amended agreement to simplify our partnership an... Zdroj: Microsoft AI Blog Čas: 27.04.2026 15:00
-
Jak použít Transformers.js v rozšíření pro Chrome
Shrnutí: Hugging Face na blogu ukazuje, jak nasadit Transformers.js přímo do rozšíření pro Chrome. Návod se zaměřuje na běh modelů v prohlížeči bez serverového backendu a na praktické kroky, jak takové rozšíření postavit. Proč je to zajímavé: Pro vývojáře je to užitečný příklad, jak přidat AI funkce do rozšíření bez nutnosti provozovat vlastní server. To může zjednodušit nasazení, snížit náklady a v některých případech i zlepšit soukromí uživatelů. Zdroj: Hugging Face Blog Čas: 23.04.2026 02:00
-
vLLM v0.20.0 přepíná výchozí CUDA na 13.0
Shrnutí: Vyšla verze vLLM 0.20.0. Hlavní změnou je přepnutí výchozího CUDA na 13.0 a aktualizace seznamů podporovaných architektur, takže se mění výchozí build i očekávání kolem kompatibility na GPU serverech. Proč je to zajímavé: Pro týmy, které vLLM staví ze zdroje nebo provozují na vlastních GPU instancích, to může ovlivnit kompatibilitu buildů, image i CI pipeline. Pokud máte infrastrukturu navázanou na starší CUDA toolchain, může být potřeba upravit prostředí nebo ověřit podporu konkrétních karet. Ukázka originálu: [Build] Switch default CUDA to 13.0, update CUDA architecture lists, … Zdroj: vLLM Releases Čas: 23.04.2026 09:52
-
ChatGPT for Clinicians je zdarma pro ověřené zdravotníky v USA
Shrnutí: OpenAI zpřístupňuje ChatGPT for Clinicians bezplatně ověřeným lékařům, zdravotním sestrám s rozšířenou praxí a farmaceutům v USA. Nástroj má pomáhat s klinickou péčí, dokumentací i vyhledáváním informací pro výzkum, takže míří hlavně na každodenní práci ve zdravotnictví. Proč je to zajímavé: Pro zdravotníky to může znamenat rychlejší práci s dokumentací a snazší dohledávání informací přímo v praxi. Zároveň je to další krok k tomu, aby se generativní AI posouvala z obecných chatbotů do specializovaných profesních nástrojů. Ukázka originálu: OpenAI makes ChatGPT for Clinicians free for verified U.S. physicians, nurse practitioners, and pharmacists, supporting clinical care, documentation, and research. Zdroj: OpenAI News Čas: 22.04.2026 17:00
-
OpenAI představilo workspace agents v ChatGPT
Shrnutí: OpenAI do ChatGPT přidává takzvané workspace agents, tedy cloudové agenty poháněné Codexem, kteří mají zvládat složitější pracovní postupy napříč firemními nástroji. Cílí hlavně na týmy, které chtějí automatizovat opakující se úkoly a škálovat práci bez ručního přepínání mezi aplikacemi. Proč je to zajímavé: Pro firmy to může znamenat méně ruční práce při koordinaci úkolů mezi více systémy a rychlejší zpracování běžných procesů. Důležité bude hlavně to, jak spolehlivě budou agenti fungovat v praxi a jak dobře firmy nastaví přístupy a kontrolu nad daty. Ukázka originálu: Workspace agents in ChatGPT are Codex-powered agents that automate complex workflows, run in the cloud, and help teams scale work across tools securely. Zdroj: OpenAI News Čas: 22.04.2026 12:00
-
WebSockets v Responses API zrychlují agentní workflow
Shrnutí: OpenAI popisuje, jak v Responses API zrychlilo agentní workflow pomocí WebSockets. V textu rozebírá smyčku agenta v Codexu a ukazuje, že connection-scoped caching pomohl snížit režii API volání i latenci modelu. Proč je to zajímavé: U delších vícekrokových úloh může nižší režie komunikace znamenat rychlejší odezvu i menší zátěž infrastruktury. Prakticky je to důležité hlavně pro vývojáře, kteří staví asistenty a agenty s častými iteracemi nad jednou relací. Ukázka originálu: A deep dive into the Codex agent loop, showing how WebSockets and connection-scoped caching reduced API overhead and improved model latency. Zdroj: OpenAI News Čas: 22.04.2026 12:00
-
Gemma 4 VLA běží v demu na Jetson Orin Nano Super
Shrnutí: Hugging Face ukázal demo modelu Gemma 4 VLA na zařízení Jetson Orin Nano Super od Nvidie. Jde o praktickou ukázku toho, že multimodální model pro práci s obrazem a akcemi může fungovat i na menším edge hardwaru, ne jen v cloudu nebo na velkých serverech. Proč je to zajímavé: Pro vývojáře a bastlíře je důležité, že podobné modely se posouvají blíž k reálnému nasazení na okraji sítě. To může znamenat nižší latenci, větší soukromí a menší závislost na cloudové infrastruktuře. Zdroj: Hugging Face Blog Čas: 22.04.2026 17:40
-
OpenAI vydalo Privacy Filter pro detekci a anonymizaci osobních údajů
Shrnutí: OpenAI představilo Privacy Filter, open-weight model zaměřený na rozpoznávání a redakci osobních údajů v textu. Firma ho popisuje jako nástroj se špičkovou přesností, který může pomoct při práci s citlivými daty v dokumentech, chatech nebo interních záznamech. Proč je to zajímavé: Pro firmy a týmy je to praktický krok k bezpečnějšímu sdílení a zpracování textových dat. Může zjednodušit anonymizaci před analýzou, trénováním modelů nebo předáváním dat dalším nástrojům. Ukázka originálu: OpenAI Privacy Filter is an open-weight model for detecting and redacting personally identifiable information (PII) in text with state-of-the-art accuracy Zdroj: OpenAI News Čas: 22.04.2026 02:00
-
OpenAI rozjíždí program Codex Transformation Partners pro nasazení Codexu ve firmách
Shrnutí: OpenAI spouští program Codex Transformation Partners, ve kterém chce spolu s partnery jako Accenture, PwC nebo Infosys pomáhat velkým firmám zavádět a škálovat Codex napříč celým vývojovým cyklem. Cílí hlavně na enterprise prostředí, kde nejde jen o samotné generování kódu, ale i o integraci do procesů, governance a provozu ve větším měřítku. Proč je to zajímavé: Pro firmy je to signál, že se Codex posouvá od samostatného nástroje k řízenému podnikovému nasazení s podporou velkých integrátorů. V praxi to může urychlit adopci tam, kde dosud brzdily bezpečnost, procesy, odpovědnost nebo složitá integrace do existujících workflow. Ukázka originálu: OpenAI launches Codex Transformation Partners, a program with Accenture, PwC, Infosys, and others to help enterprises deploy and scale Codex across the software development lifecycle. Zdroj: OpenAI News Čas: 21.04.2026 02:00
-
NVIDIA na Hugging Face ukazuje rychlý vícejazyčný OCR model trénovaný na syntetických datech
Shrnutí: Hugging Face Blog zveřejnil text o tom, jak vznikal rychlý vícejazyčný OCR model s využitím syntetických dat. Článek popisuje přístup kolem Nemotron OCR v2 a zaměřuje se hlavně na to, jak zrychlit vývoj i nasazení rozpoznávání textu napříč jazyky bez závislosti jen na ručně anotovaných datech. Proč je to zajímavé: Pro týmy, které řeší digitalizaci dokumentů nebo zpracování obrazového textu ve více jazycích, je to praktický návod, jak obejít nedostatek kvalitních trénovacích dat. Zajímavé je to i tím, že syntetická data mohou zkrátit přípravu modelu a zlepšit pokrytí jazyků či typů dokumentů. Zdroj: Hugging Face Blog Čas: 17.04.2026 18:17
-
NVIDIA Isaac GR00T N1.7 přináší otevřený reasoning VLA model pro humanoidní roboty
Shrnutí: NVIDIA představila Isaac GR00T N1.7, otevřený VLA model zaměřený na reasoning a řízení humanoidních robotů. Oznámení vyšlo na blogu Hugging Face, takže je důležité hlavně tím, že se model dostává blíž vývojářům a výzkumníkům, kteří si ho mohou zkoušet a stavět na něm vlastní experimenty. Proč je to zajímavé: Pro týmy v robotice je zajímavé, že nejde jen o další uzavřenou ukázku, ale o otevřenější základ pro testování řízení humanoidů. Může to urychlit experimenty s tím, jak roboti chápou prostředí, plánují kroky a převádějí instrukce do pohybu. Zdroj: Hugging Face Blog Čas: 17.04.2026 17:45
-
LangChain Core 1.3.0 přináší lepší metadata pro tracing a úpravy kolem SSRF
Shrnutí: Vyšla verze langchain-core 1.3.0, která vedle menších oprav přidává do traceable metadat i parametry volání chat modelů a LLM. Součástí jsou také úpravy kvůli zpětné kompatibilitě ve streamovacích metadatech, opravy kolem SSRF politik a drobný fix pro OpenAI Responses API. Proč je to zajímavé: Pro vývojáře, kteří staví aplikace nad LangChainem, to znamená lepší dohledatelnost volání modelů a méně problémů při debugování nebo monitoringu. Důležité jsou i bezpečnostní úpravy kolem SSRF a zachování kompatibility, takže update dává smysl i bez velkých nových funkcí. Ukázka originálu: Changes since langchain-core==1.2.31 release(core): release 1.3.0 (#36851) release(core): 1.3.0a3 (#36829) chore(core): keep checkpoint_ns behavior in streaming metadata for backwards compat (#36828) feat(core): Add chat model and LLM invocation params to t... Zdroj: LangChain Releases Čas: 17.04.2026 16:51
-
AIHNED digest: nejdulezitejsi AI novinky za poslednich 24 hodin
Vyber nejdulezitejsich AI novinek za poslednich 24 hodin. Ber to jako rychly editorialni prehled s dopadem na praxi. langchain-core 1.3.0 přináší úpravy metadat trasování i opravy kolem SSRF Vyšla verze langchain-core 1.3.0, která vedle běžných údržbových změn přidává do traceable metadat parametry volání chat modelů a LLM. Součástí jsou také opravy zpětné kompatibility ve streamovacích metadatech, úpravy kolem SSRF ochrany a menší fix pro OpenAI Responses API. Prakticky dopad: Pro týmy, které staví aplikace nad LangChainem, to znamená lepší observabilitu při ladění volání modelů a menší riziko, že aktualizace rozbije existující streamování. Důležité jsou i bezpečnostní úpravy kolem SSRF, hlavně pokud framework běží v citlivější infrastruktuře nebo pracuje... Zdroj: https://github.com/langchain-ai/langchain/releases/tag/langchain-core%3D%3D1.3.0
-
Codex pro macOS a Windows nově umí ovládat počítač, prohlížet web i pracovat s pamětí
Shrnutí: OpenAI rozšířilo aplikaci Codex pro macOS a Windows o několik praktických funkcí pro vývojáře. Přibylo ovládání počítače, prohlížení webu přímo v aplikaci, generování obrázků, paměť a podpora pluginů, které mají zrychlit běžnou práci při vývoji. Proč je to zajímavé: Pro vývojáře to může znamenat méně přepínání mezi aplikacemi a rychlejší řešení rutinních úkolů. Důležité bude hlavně to, jak spolehlivě budou fungovat automatizované akce na počítači a jak užitečná bude paměť v delší práci. Ukázka originálu: The updated Codex app for macOS and Windows adds computer use, in-app browsing, image generation, memory, and plugins to accelerate developer workflows. Zdroj: OpenAI News Čas: 16.04.2026 12:00
-
Jak převést modely z Transformers do MLX
Shrnutí: Hugging Face na blogu ukazuje postup, jak převést modely z knihovny Transformers do formátu MLX. Jde o praktický návod hlavně pro ty, kdo chtějí modely jednodušeji spouštět a ladit v ekosystému Apple Silicon. Proč je to zajímavé: Pro vývojáře na Macu to může zjednodušit nasazení i experimentování s open-source modely bez složitého ručního přepisování. Praktická cesta mezi dvěma běžně používanými nástroji šetří čas a snižuje bariéru při testování. Zdroj: Hugging Face Blog Čas: 16.04.2026 02:00
-
Jak trénovat a ladit multimodální embeddingy a rerankery v Sentence Transformers
Shrnutí: Hugging Face na blogu popisuje postup, jak v Sentence Transformers trénovat a finetunovat multimodální embeddingové modely i rerankery. Text míří hlavně na vývojáře, kteří chtějí lépe propojovat text a obraz při vyhledávání, párování nebo řazení výsledků. Proč je to zajímavé: Pro týmy, které staví vyhledávání, doporučování nebo retrieval pipeline nad multimodálními daty, je to použitelný návod místo čistě teoretického přehledu. Může zkrátit cestu k vlastnímu modelu a pomoct s lepším řazením výsledků v reálných aplikacích. Zdroj: Hugging Face Blog Čas: 16.04.2026 02:00
-
AIHNED digest: nejdulezitejsi AI novinky za poslednich 24 hodin
Vyber nejdulezitejsich AI novinek za poslednich 24 hodin. Ber to jako rychly editorialni prehled s dopadem na praxi. Jak trénovat a ladit multimodální embeddingy a rerankery v Sentence Transformers Hugging Face na blogu popisuje postup, jak v Sentence Transformers trénovat a finetunovat multimodální embedding modely a rerankery. Text míří hlavně na vývojáře, kteří chtějí lépe propojovat text a obraz v úlohách jako vyhledávání, párování nebo relevance ranking. Prakticky dopad: Pro týmy, které staví vyhledávání, doporučování nebo RAG nad smíšenými daty, je to užitečný návod, jak si modely přizpůsobit na vlastní dataset. Může to pomoct zlepšit relevanci výsledků bez nutnosti stavět celý tréninkový stack od nuly. Zdroj: https://huggingface.co/blog/train-multimodal-sentence-transformers
-
VAKRA ukazuje, kde agenti selhávají při uvažování i práci s nástroji
Shrnutí: IBM Research na blogu Hugging Face rozebírá benchmark VAKRA, který se zaměřuje na uvažování agentů, používání nástrojů a jejich typické chybové režimy. Text neřeší jen výsledné skóre, ale hlavně to, proč agenti v praxi chybují a kde narážejí i při zdánlivě jednoduchých úlohách. Proč je to zajímavé: Pro vývojáře a týmy nasazující agenty je užitečnější vědět, jak model selhává, než znát jen jedno souhrnné číslo v žebříčku. Podobné analýzy pomáhají lépe navrhovat testy, guardraily i reálné workflow, kde se chyba agenta může rychle prodražit. Zdroj: Hugging Face Blog Čas: 15.04.2026 14:07
-
Agents SDK dostává nativní sandbox a model-native harness
Shrnutí: OpenAI rozšiřuje Agents SDK o nativní sandboxové spouštění a takzvaný model-native harness. Cílem je usnadnit vývoj bezpečnějších a déle běžících agentů, kteří pracují se soubory i externími nástroji. Novinka míří hlavně na vývojáře, kteří staví složitější automatizace nad více kroky. Proč je to zajímavé: Pro vývojáře to může znamenat méně vlastní infrastruktury kolem bezpečného běhu agentů a jednodušší stavbu robustnějších automatizací. Důležité je to hlavně tam, kde agent pracuje delší dobu, používá více nástrojů a potřebuje mít kontrolovanější prostředí. Ukázka originálu: OpenAI updates the Agents SDK with native sandbox execution and a model-native harness, helping developers build secure, long-running agents across files and tools. Zdroj: OpenAI News Čas: 15.04.2026 12:00
-
AIHNED digest: nejdulezitejsi AI novinky za poslednich 24 hodin
Vyber nejdulezitejsich AI novinek za poslednich 24 hodin. Ber to jako rychly editorialni prehled s dopadem na praxi. OpenAI rozšiřuje Agents SDK o nativní sandbox a model-native harness OpenAI vydalo další větší update Agents SDK. Nově přidává nativní sandboxované spouštění kódu a takzvaný model-native harness, který má usnadnit stavbu bezpečnějších a dlouho běžících agentů pracujících se soubory i nástroji. Prakticky dopad: Pro vývojáře to může znamenat méně vlastní infrastruktury kolem izolace, orchestrace a běhu agentů. Prakticky to zjednodušuje stavbu složitějších agentních workflow, kde je důležitá bezpečnost i spolehlivost při práci se soubory a externími nástroji. Zdroj: https://openai.com/index/the-next-evolution-of-the-agents-sdk VAKRA ukazuje, kde agenti selhávají při uvažování i práci s nástroji IBM Research na blogu Hugging Face rozebírá benchmark VAKRA, který zkoumá, jak si agentní AI vede v uvažování, používání nástrojů a řešení chybových stavů. Text se nesoustředí jen na výsledné skóre, ale hlavně na typické failure modes, tedy situace, kdy agent udělá špatný krok, ztratí kontext nebo nezvládne správně použít dostupný nástroj. Prakticky dopad: Pro týmy, které staví AI agenty nad nástroji a workflow, je užitečné vědět, kde modely selhávají ještě před nasazením do produkce. Podobné analýzy pomáhají lépe navrhnout evaluaci, guardraily i způsob, jak měřit skutečnou spolehlivost místo jednorázového úspěchu. Zdroj: https://huggingface.co/blog/ibm-research/vakra-benchmark-analysis
-
Ollama v0.20.8-rc0 přidává Gemma 4 pro MLX
Shrnutí: Release candidate Ollama v0.20.8-rc0 přináší podporu modelu Gemma 4 v prostředí MLX, zatím pro textový runtime. Součástí jsou také dvě optimalizace výkonu při prefill fázi a routování expertů, které mají zrychlit běh modelu. Proč je to zajímavé: Pro uživatele MLX a Gemma 4 to může znamenat rychlejší inference a efektivnější využití výkonu, hlavně u náročnějších běhů. Jde sice o release candidate, ale změny míří na praktické zlepšení latence a režie výpočtu. Ukázka originálu: gemma4: implement Gemma 4 model for MLX (text-only runtime) gemma4: two MoE + SWA prefill perf fixes Two performance optimizations in the gemma4 forward pass Memoize the sliding-window prefill mask across layers. Softmax only over the selected experts in Ro... Zdroj: Ollama Releases Čas: 14.04.2026 01:36