<?xml version="1.0"?>
<rss version="2.0"><channel><title>Novinky ze sv&#x11B;ta AI &#x2013; nejnov&#x11B;j&#x161;&#xED; t&#xE9;mata</title><link>https://aihned.cz/diskuze/sekce/7-novinky-ze-sv%C4%9Bta-ai/</link><description>Novinky ze sv&#x11B;ta AI &#x2013; nejnov&#x11B;j&#x161;&#xED; t&#xE9;mata</description><language>cs</language><item><title>Ollama v0.22.1-rc0 p&#x159;id&#xE1;v&#xE1; podporu model&#x16F; laguna a upravuje pr&#xE1;ci s FP8</title><link>https://aihned.cz/diskuze/tema/113-ollama-v0221-rc0-p%C5%99id%C3%A1v%C3%A1-podporu-model%C5%AF-laguna-a-upravuje-pr%C3%A1ci-s-fp8/</link><description><![CDATA[<p><strong>Shrnutí:</strong> Release candidate Ollama v0.22.1-rc0 rozšiřuje podporu o modely laguna v mlx i ggml a zároveň vylepšuje převod safetensors do GGUF, hlavně pro FP8. Oprava se týká i serveru, kde se při generate nově zachovají logprobs i v případech, kdy vestavěný parser průběžně bufferuje viditelný obsah.</p>
<p><strong>Proč je to zajímavé:</strong> Prakticky to znamená spolehlivější převod a kvantizaci novějších modelů, hlavně pokud pracují s FP8 vahami. Pro vývojáře, kteří sledují logprobs nebo staví vlastní nástroje nad generate, je důležitá i oprava chování serveru.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>mlx: add laguna model support convert: support fp8 safetensors import Decode HF F8_E4M3 safetensors with block scale companions into GGUF-supported tensor types, and record which output tensors came from FP8 source weights. Use that source-precision metadat...</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://github.com/ollama/ollama/releases/tag/v0.22.1-rc0" rel="nofollow ugc noopener" target="_blank">Ollama Releases</a><br><strong>Čas:</strong> 28.04.2026 20:50</p>]]></description><guid isPermaLink="false">113</guid><pubDate>Tue, 28 Apr 2026 19:31:22 +0000</pubDate></item><item><title>Modely OpenAI, Codex a Managed Agents jsou nov&#x11B; dostupn&#xE9; na AWS</title><link>https://aihned.cz/diskuze/tema/112-modely-openai-codex-a-managed-agents-jsou-nov%C4%9B-dostupn%C3%A9-na-aws/</link><description><![CDATA[<p><strong>Shrnutí:</strong> OpenAI zpřístupnilo své modely GPT, Codex i Managed Agents v prostředí AWS. Firmy tak mohou stavět a nasazovat AI nástroje přímo v infrastruktuře Amazonu, což může zjednodušit integraci do stávajících firemních systémů a bezpečnostních pravidel.</p>
<p><strong>Proč je to zajímavé:</strong> Pro firmy už běžící na AWS to může znamenat méně překážek při nasazení AI do provozu a snazší správu dat, přístupů i souladu s interními pravidly. Prakticky to může urychlit vývoj interních asistentů, automatizace i nástrojů pro programování.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>OpenAI GPT models, Codex, and Managed Agents are now available on AWS, enabling enterprises to build secure AI in their AWS environments.</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://openai.com/index/openai-on-aws" rel="nofollow ugc noopener" target="_blank">OpenAI News</a><br><strong>Čas:</strong> 28.04.2026 02:00</p>]]></description><guid isPermaLink="false">112</guid><pubDate>Tue, 28 Apr 2026 17:31:23 +0000</pubDate></item><item><title>NVIDIA Nemotron 3 Nano Omni p&#x159;in&#xE1;&#x161;&#xED; dlouh&#xFD; kontext pro dokumenty, audio i video</title><link>https://aihned.cz/diskuze/tema/111-nvidia-nemotron-3-nano-omni-p%C5%99in%C3%A1%C5%A1%C3%AD-dlouh%C3%BD-kontext-pro-dokumenty-audio-i-video/</link><description><![CDATA[<p><strong>Shrnutí:</strong> NVIDIA na blogu Hugging Face představila model Nemotron 3 Nano Omni zaměřený na multimodální práci s dokumenty, zvukem a videem. Hlavní důraz je na zpracování dlouhého kontextu, takže model míří na agenty a aplikace, které potřebují chápat větší objem vstupů napříč různými formáty.</p>
<p><strong>Proč je to zajímavé:</strong> Pro vývojáře a firmy je to zajímavé hlavně tam, kde nestačí jen textový chatbot, ale je potřeba analyzovat delší materiály, nahrávky nebo video obsah v jednom systému. Prakticky to může zjednodušit stavbu agentů pro podporu, vyhledávání informací nebo interní analýzu obsahu.</p>
<p><strong>Zdroj:</strong> <a href="https://huggingface.co/blog/nvidia/nemotron-3-nano-omni-multimodal-intelligence" rel="nofollow ugc noopener" target="_blank">Hugging Face Blog</a><br><strong>Čas:</strong> 28.04.2026 17:58</p>]]></description><guid isPermaLink="false">111</guid><pubDate>Tue, 28 Apr 2026 16:01:26 +0000</pubDate></item><item><title>OpenAI z&#xED;skalo FedRAMP Moderate pro ChatGPT Enterprise a OpenAI API</title><link>https://aihned.cz/diskuze/tema/110-openai-z%C3%ADskalo-fedramp-moderate-pro-chatgpt-enterprise-a-openai-api/</link><description><![CDATA[<p><strong>Shrnutí:</strong> OpenAI oznámilo dostupnost služeb ChatGPT Enterprise a OpenAI API v režimu FedRAMP Moderate. Jde o důležitý krok pro nasazení AI ve federálních úřadech USA, kde jsou požadavky na bezpečnost, správu dat a soulad s pravidly výrazně přísnější než v běžném komerčním provozu.</p>
<p><strong>Proč je to zajímavé:</strong> Pro úřady a dodavatele je to prakticky signál, že OpenAI může vstoupit do citlivějších veřejných projektů, kde bez podobné autorizace často nejde AI vůbec nasadit. Zároveň to může urychlit adopci generativní AI v prostředí, kde se rozhoduje hlavně podle bezpečnostních a compliance požadavků.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>OpenAI is available at FedRAMP Moderate authorization for ChatGPT Enterprise and the OpenAI API, enabling secure AI adoption for U.S. federal agencies.</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://openai.com/index/openai-available-at-fedramp-moderate" rel="nofollow ugc noopener" target="_blank">OpenAI News</a><br><strong>Čas:</strong> 27.04.2026 16:00</p>]]></description><guid isPermaLink="false">110</guid><pubDate>Mon, 27 Apr 2026 22:01:22 +0000</pubDate></item><item><title>Microsoft a OpenAI upravuj&#xED; partnerstv&#xED; pro dal&#x161;&#xED; f&#xE1;zi spolupr&#xE1;ce</title><link>https://aihned.cz/diskuze/tema/108-microsoft-a-openai-upravuj%C3%AD-partnerstv%C3%AD-pro-dal%C5%A1%C3%AD-f%C3%A1zi-spolupr%C3%A1ce/</link><description><![CDATA[<p><strong>Shrnutí:</strong> Microsoft oznámil upravenou dohodu s OpenAI, která má zjednodušit vzájemnou spolupráci a přinést větší předvídatelnost pro obě firmy i jejich zákazníky. Podle Microsoftu má nová podoba partnerství stát na větší flexibilitě, jistotě a snaze dostat přínosy AI k širšímu okruhu uživatelů.</p>
<p><strong>Proč je to zajímavé:</strong> Pro firmy a vývojáře, kteří staví na službách Microsoftu a modelech OpenAI, je důležitá hlavně větší jistota do budoucna. Pokud se vztah obou firem stabilizuje, může to snížit nejistotu kolem dostupnosti technologií, integrací i obchodních podmínek.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>Amended Agreement Provides Long-Term Clarity The rapid pace of innovation requires us to continue to evolve our partnership to benefit our customers and both companies. Today, we are announcing an amended agreement to simplify our partnership an...</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://blogs.microsoft.com/blog/2026/04/27/the-next-phase-of-the-microsoft-openai-partnership/" rel="nofollow ugc noopener" target="_blank">Microsoft AI Blog</a><br><strong>Čas:</strong> 27.04.2026 15:00</p>]]></description><guid isPermaLink="false">108</guid><pubDate>Mon, 27 Apr 2026 13:01:20 +0000</pubDate></item><item><title>Jak pou&#x17E;&#xED;t Transformers.js v roz&#x161;&#xED;&#x159;en&#xED; pro Chrome</title><link>https://aihned.cz/diskuze/tema/106-jak-pou%C5%BE%C3%ADt-transformersjs-v-roz%C5%A1%C3%AD%C5%99en%C3%AD-pro-chrome/</link><description><![CDATA[<p><strong>Shrnutí:</strong> Hugging Face na blogu ukazuje, jak nasadit Transformers.js přímo do rozšíření pro Chrome. Návod se zaměřuje na běh modelů v prohlížeči bez serverového backendu a na praktické kroky, jak takové rozšíření postavit.</p>
<p><strong>Proč je to zajímavé:</strong> Pro vývojáře je to užitečný příklad, jak přidat AI funkce do rozšíření bez nutnosti provozovat vlastní server. To může zjednodušit nasazení, snížit náklady a v některých případech i zlepšit soukromí uživatelů.</p>
<p><strong>Zdroj:</strong> <a href="https://huggingface.co/blog/transformersjs-chrome-extension" rel="nofollow ugc noopener" target="_blank">Hugging Face Blog</a><br><strong>Čas:</strong> 23.04.2026 02:00</p>]]></description><guid isPermaLink="false">106</guid><pubDate>Fri, 24 Apr 2026 07:31:19 +0000</pubDate></item><item><title>vLLM v0.20.0 p&#x159;ep&#xED;n&#xE1; v&#xFD;choz&#xED; CUDA na 13.0</title><link>https://aihned.cz/diskuze/tema/104-vllm-v0200-p%C5%99ep%C3%ADn%C3%A1-v%C3%BDchoz%C3%AD-cuda-na-130/</link><description><![CDATA[<p><strong>Shrnutí:</strong> Vyšla verze vLLM 0.20.0. Hlavní změnou je přepnutí výchozího CUDA na 13.0 a aktualizace seznamů podporovaných architektur, takže se mění výchozí build i očekávání kolem kompatibility na GPU serverech.</p>
<p><strong>Proč je to zajímavé:</strong> Pro týmy, které vLLM staví ze zdroje nebo provozují na vlastních GPU instancích, to může ovlivnit kompatibilitu buildů, image i CI pipeline. Pokud máte infrastrukturu navázanou na starší CUDA toolchain, může být potřeba upravit prostředí nebo ověřit podporu konkrétních karet.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>[Build] Switch default CUDA to 13.0, update CUDA architecture lists, …</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://github.com/vllm-project/vllm/releases/tag/v0.20.0" rel="nofollow ugc noopener" target="_blank">vLLM Releases</a><br><strong>Čas:</strong> 23.04.2026 09:52</p>]]></description><guid isPermaLink="false">104</guid><pubDate>Thu, 23 Apr 2026 16:31:20 +0000</pubDate></item><item><title>ChatGPT for Clinicians je zdarma pro ov&#x11B;&#x159;en&#xE9; zdravotn&#xED;ky v USA</title><link>https://aihned.cz/diskuze/tema/103-chatgpt-for-clinicians-je-zdarma-pro-ov%C4%9B%C5%99en%C3%A9-zdravotn%C3%ADky-v-usa/</link><description><![CDATA[<p><strong>Shrnutí:</strong> OpenAI zpřístupňuje ChatGPT for Clinicians bezplatně ověřeným lékařům, zdravotním sestrám s rozšířenou praxí a farmaceutům v USA. Nástroj má pomáhat s klinickou péčí, dokumentací i vyhledáváním informací pro výzkum, takže míří hlavně na každodenní práci ve zdravotnictví.</p>
<p><strong>Proč je to zajímavé:</strong> Pro zdravotníky to může znamenat rychlejší práci s dokumentací a snazší dohledávání informací přímo v praxi. Zároveň je to další krok k tomu, aby se generativní AI posouvala z obecných chatbotů do specializovaných profesních nástrojů.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>OpenAI makes ChatGPT for Clinicians free for verified U.S. physicians, nurse practitioners, and pharmacists, supporting clinical care, documentation, and research.</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://openai.com/index/making-chatgpt-better-for-clinicians" rel="nofollow ugc noopener" target="_blank">OpenAI News</a><br><strong>Čas:</strong> 22.04.2026 17:00</p>]]></description><guid isPermaLink="false">103</guid><pubDate>Thu, 23 Apr 2026 15:31:31 +0000</pubDate></item><item><title>OpenAI p&#x159;edstavilo workspace agents v ChatGPT</title><link>https://aihned.cz/diskuze/tema/101-openai-p%C5%99edstavilo-workspace-agents-v-chatgpt/</link><description><![CDATA[<p><strong>Shrnutí:</strong> OpenAI do ChatGPT přidává takzvané workspace agents, tedy cloudové agenty poháněné Codexem, kteří mají zvládat složitější pracovní postupy napříč firemními nástroji. Cílí hlavně na týmy, které chtějí automatizovat opakující se úkoly a škálovat práci bez ručního přepínání mezi aplikacemi.</p>
<p><strong>Proč je to zajímavé:</strong> Pro firmy to může znamenat méně ruční práce při koordinaci úkolů mezi více systémy a rychlejší zpracování běžných procesů. Důležité bude hlavně to, jak spolehlivě budou agenti fungovat v praxi a jak dobře firmy nastaví přístupy a kontrolu nad daty.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>Workspace agents in ChatGPT are Codex-powered agents that automate complex workflows, run in the cloud, and help teams scale work across tools securely.</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://openai.com/index/introducing-workspace-agents-in-chatgpt" rel="nofollow ugc noopener" target="_blank">OpenAI News</a><br><strong>Čas:</strong> 22.04.2026 12:00</p>]]></description><guid isPermaLink="false">101</guid><pubDate>Wed, 22 Apr 2026 18:01:22 +0000</pubDate></item><item><title>WebSockets v Responses API zrychluj&#xED; agentn&#xED; workflow</title><link>https://aihned.cz/diskuze/tema/100-websockets-v-responses-api-zrychluj%C3%AD-agentn%C3%AD-workflow/</link><description><![CDATA[<p><strong>Shrnutí:</strong> OpenAI popisuje, jak v Responses API zrychlilo agentní workflow pomocí WebSockets. V textu rozebírá smyčku agenta v Codexu a ukazuje, že connection-scoped caching pomohl snížit režii API volání i latenci modelu.</p>
<p><strong>Proč je to zajímavé:</strong> U delších vícekrokových úloh může nižší režie komunikace znamenat rychlejší odezvu i menší zátěž infrastruktury. Prakticky je to důležité hlavně pro vývojáře, kteří staví asistenty a agenty s častými iteracemi nad jednou relací.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>A deep dive into the Codex agent loop, showing how WebSockets and connection-scoped caching reduced API overhead and improved model latency.</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://openai.com/index/speeding-up-agentic-workflows-with-websockets" rel="nofollow ugc noopener" target="_blank">OpenAI News</a><br><strong>Čas:</strong> 22.04.2026 12:00</p>]]></description><guid isPermaLink="false">100</guid><pubDate>Wed, 22 Apr 2026 16:31:22 +0000</pubDate></item><item><title>Gemma 4 VLA b&#x11B;&#x17E;&#xED; v demu na Jetson Orin Nano Super</title><link>https://aihned.cz/diskuze/tema/99-gemma-4-vla-b%C4%9B%C5%BE%C3%AD-v-demu-na-jetson-orin-nano-super/</link><description><![CDATA[<p><strong>Shrnutí:</strong> Hugging Face ukázal demo modelu Gemma 4 VLA na zařízení Jetson Orin Nano Super od Nvidie. Jde o praktickou ukázku toho, že multimodální model pro práci s obrazem a akcemi může fungovat i na menším edge hardwaru, ne jen v cloudu nebo na velkých serverech.</p>
<p><strong>Proč je to zajímavé:</strong> Pro vývojáře a bastlíře je důležité, že podobné modely se posouvají blíž k reálnému nasazení na okraji sítě. To může znamenat nižší latenci, větší soukromí a menší závislost na cloudové infrastruktuře.</p>
<p><strong>Zdroj:</strong> <a href="https://huggingface.co/blog/nvidia/gemma4" rel="nofollow ugc noopener" target="_blank">Hugging Face Blog</a><br><strong>Čas:</strong> 22.04.2026 17:40</p>]]></description><guid isPermaLink="false">99</guid><pubDate>Wed, 22 Apr 2026 16:01:33 +0000</pubDate></item><item><title>OpenAI vydalo Privacy Filter pro detekci a anonymizaci osobn&#xED;ch &#xFA;daj&#x16F;</title><link>https://aihned.cz/diskuze/tema/97-openai-vydalo-privacy-filter-pro-detekci-a-anonymizaci-osobn%C3%ADch-%C3%BAdaj%C5%AF/</link><description><![CDATA[<p><strong>Shrnutí:</strong> OpenAI představilo Privacy Filter, open-weight model zaměřený na rozpoznávání a redakci osobních údajů v textu. Firma ho popisuje jako nástroj se špičkovou přesností, který může pomoct při práci s citlivými daty v dokumentech, chatech nebo interních záznamech.</p>
<p><strong>Proč je to zajímavé:</strong> Pro firmy a týmy je to praktický krok k bezpečnějšímu sdílení a zpracování textových dat. Může zjednodušit anonymizaci před analýzou, trénováním modelů nebo předáváním dat dalším nástrojům.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>OpenAI Privacy Filter is an open-weight model for detecting and redacting personally identifiable information (PII) in text with state-of-the-art accuracy</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://openai.com/index/introducing-openai-privacy-filter" rel="nofollow ugc noopener" target="_blank">OpenAI News</a><br><strong>Čas:</strong> 22.04.2026 02:00</p>]]></description><guid isPermaLink="false">97</guid><pubDate>Wed, 22 Apr 2026 15:01:23 +0000</pubDate></item><item><title>OpenAI rozj&#xED;&#x17E;d&#xED; program Codex Transformation Partners pro nasazen&#xED; Codexu ve firm&#xE1;ch</title><link>https://aihned.cz/diskuze/tema/95-openai-rozj%C3%AD%C5%BEd%C3%AD-program-codex-transformation-partners-pro-nasazen%C3%AD-codexu-ve-firm%C3%A1ch/</link><description><![CDATA[<p><strong>Shrnutí:</strong> OpenAI spouští program Codex Transformation Partners, ve kterém chce spolu s partnery jako Accenture, PwC nebo Infosys pomáhat velkým firmám zavádět a škálovat Codex napříč celým vývojovým cyklem. Cílí hlavně na enterprise prostředí, kde nejde jen o samotné generování kódu, ale i o integraci do procesů, governance a provozu ve větším měřítku.</p>
<p><strong>Proč je to zajímavé:</strong> Pro firmy je to signál, že se Codex posouvá od samostatného nástroje k řízenému podnikovému nasazení s podporou velkých integrátorů. V praxi to může urychlit adopci tam, kde dosud brzdily bezpečnost, procesy, odpovědnost nebo složitá integrace do existujících workflow.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>OpenAI launches Codex Transformation Partners, a program with Accenture, PwC, Infosys, and others to help enterprises deploy and scale Codex across the software development lifecycle.</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://openai.com/index/scaling-codex-to-enterprises-worldwide" rel="nofollow ugc noopener" target="_blank">OpenAI News</a><br><strong>Čas:</strong> 21.04.2026 02:00</p>]]></description><guid isPermaLink="false">95</guid><pubDate>Tue, 21 Apr 2026 13:01:27 +0000</pubDate></item><item><title>NVIDIA na Hugging Face ukazuje rychl&#xFD; v&#xED;cejazy&#x10D;n&#xFD; OCR model tr&#xE9;novan&#xFD; na syntetick&#xFD;ch datech</title><link>https://aihned.cz/diskuze/tema/91-nvidia-na-hugging-face-ukazuje-rychl%C3%BD-v%C3%ADcejazy%C4%8Dn%C3%BD-ocr-model-tr%C3%A9novan%C3%BD-na-syntetick%C3%BDch-datech/</link><description><![CDATA[<p><strong>Shrnutí:</strong> Hugging Face Blog zveřejnil text o tom, jak vznikal rychlý vícejazyčný OCR model s využitím syntetických dat. Článek popisuje přístup kolem Nemotron OCR v2 a zaměřuje se hlavně na to, jak zrychlit vývoj i nasazení rozpoznávání textu napříč jazyky bez závislosti jen na ručně anotovaných datech.</p>
<p><strong>Proč je to zajímavé:</strong> Pro týmy, které řeší digitalizaci dokumentů nebo zpracování obrazového textu ve více jazycích, je to praktický návod, jak obejít nedostatek kvalitních trénovacích dat. Zajímavé je to i tím, že syntetická data mohou zkrátit přípravu modelu a zlepšit pokrytí jazyků či typů dokumentů.</p>
<p><strong>Zdroj:</strong> <a href="https://huggingface.co/blog/nvidia/nemotron-ocr-v2" rel="nofollow ugc noopener" target="_blank">Hugging Face Blog</a><br><strong>Čas:</strong> 17.04.2026 18:17</p>]]></description><guid isPermaLink="false">91</guid><pubDate>Fri, 17 Apr 2026 16:31:26 +0000</pubDate></item><item><title>NVIDIA Isaac GR00T N1.7 p&#x159;in&#xE1;&#x161;&#xED; otev&#x159;en&#xFD; reasoning VLA model pro humanoidn&#xED; roboty</title><link>https://aihned.cz/diskuze/tema/90-nvidia-isaac-gr00t-n17-p%C5%99in%C3%A1%C5%A1%C3%AD-otev%C5%99en%C3%BD-reasoning-vla-model-pro-humanoidn%C3%AD-roboty/</link><description><![CDATA[<p><strong>Shrnutí:</strong> NVIDIA představila Isaac GR00T N1.7, otevřený VLA model zaměřený na reasoning a řízení humanoidních robotů. Oznámení vyšlo na blogu Hugging Face, takže je důležité hlavně tím, že se model dostává blíž vývojářům a výzkumníkům, kteří si ho mohou zkoušet a stavět na něm vlastní experimenty.</p>
<p><strong>Proč je to zajímavé:</strong> Pro týmy v robotice je zajímavé, že nejde jen o další uzavřenou ukázku, ale o otevřenější základ pro testování řízení humanoidů. Může to urychlit experimenty s tím, jak roboti chápou prostředí, plánují kroky a převádějí instrukce do pohybu.</p>
<p><strong>Zdroj:</strong> <a href="https://huggingface.co/blog/nvidia/gr00t-n1-7" rel="nofollow ugc noopener" target="_blank">Hugging Face Blog</a><br><strong>Čas:</strong> 17.04.2026 17:45</p>]]></description><guid isPermaLink="false">90</guid><pubDate>Fri, 17 Apr 2026 16:01:24 +0000</pubDate></item><item><title>LangChain Core 1.3.0 p&#x159;in&#xE1;&#x161;&#xED; lep&#x161;&#xED; metadata pro tracing a &#xFA;pravy kolem SSRF</title><link>https://aihned.cz/diskuze/tema/89-langchain-core-130-p%C5%99in%C3%A1%C5%A1%C3%AD-lep%C5%A1%C3%AD-metadata-pro-tracing-a-%C3%BApravy-kolem-ssrf/</link><description><![CDATA[<p><strong>Shrnutí:</strong> Vyšla verze langchain-core 1.3.0, která vedle menších oprav přidává do traceable metadat i parametry volání chat modelů a LLM. Součástí jsou také úpravy kvůli zpětné kompatibilitě ve streamovacích metadatech, opravy kolem SSRF politik a drobný fix pro OpenAI Responses API.</p>
<p><strong>Proč je to zajímavé:</strong> Pro vývojáře, kteří staví aplikace nad LangChainem, to znamená lepší dohledatelnost volání modelů a méně problémů při debugování nebo monitoringu. Důležité jsou i bezpečnostní úpravy kolem SSRF a zachování kompatibility, takže update dává smysl i bez velkých nových funkcí.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>Changes since langchain-core==1.2.31 release(core): release 1.3.0 (#36851) release(core): 1.3.0a3 (#36829) chore(core): keep checkpoint_ns behavior in streaming metadata for backwards compat (#36828) feat(core): Add chat model and LLM invocation params to t...</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://github.com/langchain-ai/langchain/releases/tag/langchain-core%3D%3D1.3.0" rel="nofollow ugc noopener" target="_blank">LangChain Releases</a><br><strong>Čas:</strong> 17.04.2026 16:51</p>]]></description><guid isPermaLink="false">89</guid><pubDate>Fri, 17 Apr 2026 15:01:23 +0000</pubDate></item><item><title>AIHNED digest: nejdulezitejsi AI novinky za poslednich 24 hodin</title><link>https://aihned.cz/diskuze/tema/88-aihned-digest-nejdulezitejsi-ai-novinky-za-poslednich-24-hodin/</link><description><![CDATA[<p>Vyber nejdulezitejsich AI novinek za poslednich 24 hodin. Ber to jako rychly editorialni prehled s dopadem na praxi.</p>
<ol>
<li>
<p><strong>langchain-core 1.3.0 přináší úpravy metadat trasování i opravy kolem SSRF</strong></p>
<p>Vyšla verze langchain-core 1.3.0, která vedle běžných údržbových změn přidává do traceable metadat parametry volání chat modelů a LLM. Součástí jsou také opravy zpětné kompatibility ve streamovacích metadatech, úpravy kolem SSRF ochrany a menší fix pro OpenAI Responses API.</p>
<p><strong>Prakticky dopad:</strong> Pro týmy, které staví aplikace nad LangChainem, to znamená lepší observabilitu při ladění volání modelů a menší riziko, že aktualizace rozbije existující streamování. Důležité jsou i bezpečnostní úpravy kolem SSRF, hlavně pokud framework běží v citlivější infrastruktuře nebo pracuje...</p>
<p><strong>Zdroj:</strong> <a href="https://github.com/langchain-ai/langchain/releases/tag/langchain-core%3D%3D1.3.0" rel="nofollow ugc noopener" target="_blank">https://github.com/langchain-ai/langchain/releases/tag/langchain-core%3D%3D1.3.0</a></p>
</li>
</ol>]]></description><guid isPermaLink="false">88</guid><pubDate>Fri, 17 Apr 2026 15:00:27 +0000</pubDate></item><item><title>Codex pro macOS a Windows nov&#x11B; um&#xED; ovl&#xE1;dat po&#x10D;&#xED;ta&#x10D;, prohl&#xED;&#x17E;et web i pracovat s pam&#x11B;t&#xED;</title><link>https://aihned.cz/diskuze/tema/87-codex-pro-macos-a-windows-nov%C4%9B-um%C3%AD-ovl%C3%A1dat-po%C4%8D%C3%ADta%C4%8D-prohl%C3%AD%C5%BEet-web-i-pracovat-s-pam%C4%9Bt%C3%AD/</link><description><![CDATA[<p><strong>Shrnutí:</strong> OpenAI rozšířilo aplikaci Codex pro macOS a Windows o několik praktických funkcí pro vývojáře. Přibylo ovládání počítače, prohlížení webu přímo v aplikaci, generování obrázků, paměť a podpora pluginů, které mají zrychlit běžnou práci při vývoji.</p>
<p><strong>Proč je to zajímavé:</strong> Pro vývojáře to může znamenat méně přepínání mezi aplikacemi a rychlejší řešení rutinních úkolů. Důležité bude hlavně to, jak spolehlivě budou fungovat automatizované akce na počítači a jak užitečná bude paměť v delší práci.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>The updated Codex app for macOS and Windows adds computer use, in-app browsing, image generation, memory, and plugins to accelerate developer workflows.</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://openai.com/index/codex-for-almost-everything" rel="nofollow ugc noopener" target="_blank">OpenAI News</a><br><strong>Čas:</strong> 16.04.2026 12:00</p>]]></description><guid isPermaLink="false">87</guid><pubDate>Thu, 16 Apr 2026 17:31:25 +0000</pubDate></item><item><title>Jak p&#x159;ev&#xE9;st modely z Transformers do MLX</title><link>https://aihned.cz/diskuze/tema/86-jak-p%C5%99ev%C3%A9st-modely-z-transformers-do-mlx/</link><description><![CDATA[<p><strong>Shrnutí:</strong> Hugging Face na blogu ukazuje postup, jak převést modely z knihovny Transformers do formátu MLX. Jde o praktický návod hlavně pro ty, kdo chtějí modely jednodušeji spouštět a ladit v ekosystému Apple Silicon.</p>
<p><strong>Proč je to zajímavé:</strong> Pro vývojáře na Macu to může zjednodušit nasazení i experimentování s open-source modely bez složitého ručního přepisování. Praktická cesta mezi dvěma běžně používanými nástroji šetří čas a snižuje bariéru při testování.</p>
<p><strong>Zdroj:</strong> <a href="https://huggingface.co/blog/transformers-to-mlx" rel="nofollow ugc noopener" target="_blank">Hugging Face Blog</a><br><strong>Čas:</strong> 16.04.2026 02:00</p>]]></description><guid isPermaLink="false">86</guid><pubDate>Thu, 16 Apr 2026 15:01:24 +0000</pubDate></item><item><title>Jak tr&#xE9;novat a ladit multimod&#xE1;ln&#xED; embeddingy a rerankery v Sentence Transformers</title><link>https://aihned.cz/diskuze/tema/85-jak-tr%C3%A9novat-a-ladit-multimod%C3%A1ln%C3%AD-embeddingy-a-rerankery-v-sentence-transformers/</link><description><![CDATA[<p><strong>Shrnutí:</strong> Hugging Face na blogu popisuje postup, jak v Sentence Transformers trénovat a finetunovat multimodální embeddingové modely i rerankery. Text míří hlavně na vývojáře, kteří chtějí lépe propojovat text a obraz při vyhledávání, párování nebo řazení výsledků.</p>
<p><strong>Proč je to zajímavé:</strong> Pro týmy, které staví vyhledávání, doporučování nebo retrieval pipeline nad multimodálními daty, je to použitelný návod místo čistě teoretického přehledu. Může zkrátit cestu k vlastnímu modelu a pomoct s lepším řazením výsledků v reálných aplikacích.</p>
<p><strong>Zdroj:</strong> <a href="https://huggingface.co/blog/train-multimodal-sentence-transformers" rel="nofollow ugc noopener" target="_blank">Hugging Face Blog</a><br><strong>Čas:</strong> 16.04.2026 02:00</p>]]></description><guid isPermaLink="false">85</guid><pubDate>Thu, 16 Apr 2026 14:01:24 +0000</pubDate></item><item><title>AIHNED digest: nejdulezitejsi AI novinky za poslednich 24 hodin</title><link>https://aihned.cz/diskuze/tema/84-aihned-digest-nejdulezitejsi-ai-novinky-za-poslednich-24-hodin/</link><description><![CDATA[<p>Vyber nejdulezitejsich AI novinek za poslednich 24 hodin. Ber to jako rychly editorialni prehled s dopadem na praxi.</p>
<ol>
<li>
<p><strong>Jak trénovat a ladit multimodální embeddingy a rerankery v Sentence Transformers</strong></p>
<p>Hugging Face na blogu popisuje postup, jak v Sentence Transformers trénovat a finetunovat multimodální embedding modely a rerankery. Text míří hlavně na vývojáře, kteří chtějí lépe propojovat text a obraz v úlohách jako vyhledávání, párování nebo relevance ranking.</p>
<p><strong>Prakticky dopad:</strong> Pro týmy, které staví vyhledávání, doporučování nebo RAG nad smíšenými daty, je to užitečný návod, jak si modely přizpůsobit na vlastní dataset. Může to pomoct zlepšit relevanci výsledků bez nutnosti stavět celý tréninkový stack od nuly.</p>
<p><strong>Zdroj:</strong> <a href="https://huggingface.co/blog/train-multimodal-sentence-transformers" rel="nofollow ugc noopener" target="_blank">https://huggingface.co/blog/train-multimodal-sentence-transformers</a></p>
</li>
</ol>]]></description><guid isPermaLink="false">84</guid><pubDate>Thu, 16 Apr 2026 14:00:24 +0000</pubDate></item><item><title>VAKRA ukazuje, kde agenti selh&#xE1;vaj&#xED; p&#x159;i uva&#x17E;ov&#xE1;n&#xED; i pr&#xE1;ci s n&#xE1;stroji</title><link>https://aihned.cz/diskuze/tema/83-vakra-ukazuje-kde-agenti-selh%C3%A1vaj%C3%AD-p%C5%99i-uva%C5%BEov%C3%A1n%C3%AD-i-pr%C3%A1ci-s-n%C3%A1stroji/</link><description><![CDATA[<p><strong>Shrnutí:</strong> IBM Research na blogu Hugging Face rozebírá benchmark VAKRA, který se zaměřuje na uvažování agentů, používání nástrojů a jejich typické chybové režimy. Text neřeší jen výsledné skóre, ale hlavně to, proč agenti v praxi chybují a kde narážejí i při zdánlivě jednoduchých úlohách.</p>
<p><strong>Proč je to zajímavé:</strong> Pro vývojáře a týmy nasazující agenty je užitečnější vědět, jak model selhává, než znát jen jedno souhrnné číslo v žebříčku. Podobné analýzy pomáhají lépe navrhovat testy, guardraily i reálné workflow, kde se chyba agenta může rychle prodražit.</p>
<p><strong>Zdroj:</strong> <a href="https://huggingface.co/blog/ibm-research/vakra-benchmark-analysis" rel="nofollow ugc noopener" target="_blank">Hugging Face Blog</a><br><strong>Čas:</strong> 15.04.2026 14:07</p>]]></description><guid isPermaLink="false">83</guid><pubDate>Wed, 15 Apr 2026 17:31:36 +0000</pubDate></item><item><title>Agents SDK dost&#xE1;v&#xE1; nativn&#xED; sandbox a model-native harness</title><link>https://aihned.cz/diskuze/tema/82-agents-sdk-dost%C3%A1v%C3%A1-nativn%C3%AD-sandbox-a-model-native-harness/</link><description><![CDATA[<p><strong>Shrnutí:</strong> OpenAI rozšiřuje Agents SDK o nativní sandboxové spouštění a takzvaný model-native harness. Cílem je usnadnit vývoj bezpečnějších a déle běžících agentů, kteří pracují se soubory i externími nástroji. Novinka míří hlavně na vývojáře, kteří staví složitější automatizace nad více kroky.</p>
<p><strong>Proč je to zajímavé:</strong> Pro vývojáře to může znamenat méně vlastní infrastruktury kolem bezpečného běhu agentů a jednodušší stavbu robustnějších automatizací. Důležité je to hlavně tam, kde agent pracuje delší dobu, používá více nástrojů a potřebuje mít kontrolovanější prostředí.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>OpenAI updates the Agents SDK with native sandbox execution and a model-native harness, helping developers build secure, long-running agents across files and tools.</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://openai.com/index/the-next-evolution-of-the-agents-sdk" rel="nofollow ugc noopener" target="_blank">OpenAI News</a><br><strong>Čas:</strong> 15.04.2026 12:00</p>]]></description><guid isPermaLink="false">82</guid><pubDate>Wed, 15 Apr 2026 17:31:35 +0000</pubDate></item><item><title>AIHNED digest: nejdulezitejsi AI novinky za poslednich 24 hodin</title><link>https://aihned.cz/diskuze/tema/81-aihned-digest-nejdulezitejsi-ai-novinky-za-poslednich-24-hodin/</link><description><![CDATA[<p>Vyber nejdulezitejsich AI novinek za poslednich 24 hodin. Ber to jako rychly editorialni prehled s dopadem na praxi.</p>
<ol>
<li>
<p><strong>OpenAI rozšiřuje Agents SDK o nativní sandbox a model-native harness</strong></p>
<p>OpenAI vydalo další větší update Agents SDK. Nově přidává nativní sandboxované spouštění kódu a takzvaný model-native harness, který má usnadnit stavbu bezpečnějších a dlouho běžících agentů pracujících se soubory i nástroji.</p>
<p><strong>Prakticky dopad:</strong> Pro vývojáře to může znamenat méně vlastní infrastruktury kolem izolace, orchestrace a běhu agentů. Prakticky to zjednodušuje stavbu složitějších agentních workflow, kde je důležitá bezpečnost i spolehlivost při práci se soubory a externími nástroji.</p>
<p><strong>Zdroj:</strong> <a href="https://openai.com/index/the-next-evolution-of-the-agents-sdk" rel="nofollow ugc noopener" target="_blank">https://openai.com/index/the-next-evolution-of-the-agents-sdk</a></p>
</li>
<li>
<p><strong>VAKRA ukazuje, kde agenti selhávají při uvažování i práci s nástroji</strong></p>
<p>IBM Research na blogu Hugging Face rozebírá benchmark VAKRA, který zkoumá, jak si agentní AI vede v uvažování, používání nástrojů a řešení chybových stavů. Text se nesoustředí jen na výsledné skóre, ale hlavně na typické failure modes, tedy situace, kdy agent udělá špatný krok, ztratí kontext nebo nezvládne správně použít dostupný nástroj.</p>
<p><strong>Prakticky dopad:</strong> Pro týmy, které staví AI agenty nad nástroji a workflow, je užitečné vědět, kde modely selhávají ještě před nasazením do produkce. Podobné analýzy pomáhají lépe navrhnout evaluaci, guardraily i způsob, jak měřit skutečnou spolehlivost místo jednorázového úspěchu.</p>
<p><strong>Zdroj:</strong> <a href="https://huggingface.co/blog/ibm-research/vakra-benchmark-analysis" rel="nofollow ugc noopener" target="_blank">https://huggingface.co/blog/ibm-research/vakra-benchmark-analysis</a></p>
</li>
</ol>]]></description><guid isPermaLink="false">81</guid><pubDate>Wed, 15 Apr 2026 17:30:39 +0000</pubDate></item><item><title>Ollama v0.20.8-rc0 p&#x159;id&#xE1;v&#xE1; Gemma 4 pro MLX</title><link>https://aihned.cz/diskuze/tema/80-ollama-v0208-rc0-p%C5%99id%C3%A1v%C3%A1-gemma-4-pro-mlx/</link><description><![CDATA[<p><strong>Shrnutí:</strong> Release candidate Ollama v0.20.8-rc0 přináší podporu modelu Gemma 4 v prostředí MLX, zatím pro textový runtime. Součástí jsou také dvě optimalizace výkonu při prefill fázi a routování expertů, které mají zrychlit běh modelu.</p>
<p><strong>Proč je to zajímavé:</strong> Pro uživatele MLX a Gemma 4 to může znamenat rychlejší inference a efektivnější využití výkonu, hlavně u náročnějších běhů. Jde sice o release candidate, ale změny míří na praktické zlepšení latence a režie výpočtu.</p>
<p><strong>Ukázka originálu:</strong></p>
<blockquote><p>gemma4: implement Gemma 4 model for MLX (text-only runtime) gemma4: two MoE + SWA prefill perf fixes Two performance optimizations in the gemma4 forward pass Memoize the sliding-window prefill mask across layers. Softmax only over the selected experts in Ro...</p></blockquote>
<p><strong>Zdroj:</strong> <a href="https://github.com/ollama/ollama/releases/tag/v0.20.8-rc0" rel="nofollow ugc noopener" target="_blank">Ollama Releases</a><br><strong>Čas:</strong> 14.04.2026 01:36</p>]]></description><guid isPermaLink="false">80</guid><pubDate>Tue, 14 Apr 2026 00:01:23 +0000</pubDate></item></channel></rss>
