22. dubna22. dub Shrnutí: OpenAI popisuje, jak v Responses API zrychlilo agentní workflow pomocí WebSockets. V textu rozebírá smyčku agenta v Codexu a ukazuje, že connection-scoped caching pomohl snížit režii API volání i latenci modelu. Proč je to zajímavé: U delších vícekrokových úloh může nižší režie komunikace znamenat rychlejší odezvu i menší zátěž infrastruktury. Prakticky je to důležité hlavně pro vývojáře, kteří staví asistenty a agenty s častými iteracemi nad jednou relací. Ukázka originálu: A deep dive into the Codex agent loop, showing how WebSockets and connection-scoped caching reduced API overhead and improved model latency. Zdroj: OpenAI NewsČas: 22.04.2026 12:00
Zapojte se do konverzace
Můžete odeslat příspěvek nyní a zaregistrovat se později. Máte-li účet, přihlaste se nyní a přispívejte pod svým účtem.