Andrej Karpathy, bývalý šéf AI v Tesle a spoluzakladatel OpenAI, v dubnu 2026 zveřejnil na GitHubu jednoduchý Markdown soubor s názvem llm-wiki.md. Žádný framework, žádná knihovna, žádný produkt – jen popis vzoru, jak nechat jazykový model spravovat vaši osobní znalostní bázi. Za dva týdny se tento gist stal jedním z nejsdílenějších AI příspěvků roku a vyvolal vlnu diskuzí o tom, zda je RAG (Retrieval-Augmented Generation) pro individuální znalostní management slepá ulička.
Problém: Každá konverzace začíná od nuly
Současné AI nástroje pro práci se znalostmi mají zásadní problém – jsou bezstavové. Každá nová konverzace s Claude, ChatGPT nebo Gemini začíná s prázdnou tabulí. Model neví, co jste řešili včera. Neví, jaké projekty vedete. Neví, které knihy jste přečetli a jaké závěry z nich vyplynuly.
Standardní řešení je RAG – uložíte dokumenty do vektorové databáze, model při každém dotazu vyhledá relevantní fragmenty a odpovídá na jejich základě. To funguje, ale má tři systémové problémy:
- Opakovaná práce. Při každém dotazu model znovu čte a syntetizuje surové fragmenty. Pokud se na stejné téma ptáte potřetí, model dělá stejnou práci potřetí.
- Žádné propojení. Vektorové vyhledávání vrací izolované fragmenty. Nevidí, že poznámka z knihy A a zápis ze schůzky B se týkají stejného problému – pokud nejsou náhodou sémanticky blízké.
- Nic se neakumuluje. Po zavření konverzace se všechna syntéza, propojení a vhledy ztratí. Znalost se nehromadí – přetéká.
Karpathy to přirovnává k rozdílu mezi interpreterem a kompilátorem. RAG je interpreter: pokaždé znovu čte zdrojový kód (vaše dokumenty) a interpretuje ho za běhu. Jeho LLM Wiki je kompilátor: jednou zpracuje vstupy a vytvoří trvalý, optimalizovaný výstup (wiki), ze kterého se pak rychle čte.
Jak LLM Wiki funguje
Vzor stojí na třech vrstvách a třech operacích. Celý systém jsou jen Markdown soubory v adresářích.
Tři vrstvy
1. Surové zdroje (ground truth). Adresář s neměnnými vstupními soubory – PDF dokumenty, poznámky z přednášek, webové výstřižky, zápisy ze schůzek, exporty z Kindle. LLM tyto soubory čte, ale nikdy je nemodifikuje.
2. Wiki (zkompilované znalosti). Adresář strukturovaných Markdown souborů, které LLM vlastní a spravuje. Obsahuje stránky entit (lidé, firmy, projekty, koncepty), souhrnné stránky, hlavní index a logy změn. Vše je propojeno [[wiki-linky]] ve stylu Obsidianu.
3. Schéma (instrukce pro agenta). Konfigurační soubor (CLAUDE.md nebo AGENTS.md), který definuje, jak se agent chová – konvence formátování, pravidla pro linkování, struktura stránek, priority při údržbě.
Tři operace
Ingest (vstřebání). Přidáte nový zdroj do adresáře surových dat. Agent ho přečte, aktualizuje existující stránky, vytvoří nové stránky pro dosud nezmíněné entity, posílí křížové odkazy, označí rozpory a doplní souhrnné stránky. Jediné vložení jednoho zdroje může znamenat úpravy v 10-15 wiki souborech. Znalostní báze po každém ingestu roste a zhutňuje se.
Query (dotaz). Místo prohledávání surových dokumentů model uvažuje nad předkompilovanou wiki. Protože wiki je strukturovaná, syntetizovaná a prolinková, odpovědi jsou typicky kvalitnější a lépe kontextualizované než u RAG nad surovými fragmenty.
Lint (údržba). Periodická operace, kdy agent projde celou wiki a hledá osiřelé stránky, nekonzistence, zastaralé informace a mezery ve znalostech. Je to jako refaktoring kódu – nic nového nevzniká, ale existující struktura se zpevňuje.
Čísla a evidence
| Metrika | Hodnota | Zdroj |
|---|---|---|
| Typický rozsah osobní wiki | 100 000-150 000 slov | Karpathy, GitHub Gist |
| Kontextové okno Claude 3.5 | 200 000 tokenů | Anthropic |
| Počet souborů upravených při jednom ingestu | 10-15 | Karpathy, GitHub Gist |
| Formát úložiště | Plain Markdown | Karpathy, GitHub Gist |
| Vendor lock-in | Žádný | Architektura vzoru |
Klíčový fakt: osobní wiki o 100-150 tisících slovech se vejde celá do kontextového okna současných modelů (Claude 3.5 Sonnet: 200K tokenů, Gemini 1.5 Pro: 1M tokenů). To znamená, že model může mít v „paměti“ celou vaši znalostní bázi najednou – bez vyhledávání, bez fragmentace, bez ztráty kontextu.
Srovnání: RAG vs. LLM Wiki vs. Plný kontext
| Dimenze | Tradiční RAG | LLM Wiki | Plný kontext (bez wiki) |
|---|---|---|---|
| Stav mezi sezeními | Žádný | Perzistentní, akumulativní | Žádný |
| Kvalita odpovědí | Závislá na kvalitě retrievalu | Vysoká (syntetizované znalosti) | Vysoká (ale nestrukturované) |
| Náklady na dotaz | Nízké (embedding + retrieval) | Vyšší (celá wiki v kontextu) | Nejvyšší (všechny dokumenty) |
| Propojení znalostí | Minimální | Silné (wiki-linky) | Závisí na modelu |
| Údržba | Minimální (přidání dokumentu) | Průběžná (ingest, lint) | Žádná |
| Škálovatelnost | Miliony dokumentů | Stovky tisíc slov (osobní) | Omezeno kontextovým oknem |
| Vendor lock-in | Vektorová DB, embedding model | Žádný (plain Markdown) | Žádný |
| Ideální pro | Enterprise, velké korpusy | Individuální znalostní management | Jednorázové analýzy |
Omezení a rizika
- Škáluje se jen do osobní úrovně. Wiki o 150 000 slovech se vejde do kontextu. Firemní znalostní báze s miliony dokumentů nikoliv. Pro enterprise use cases zůstává RAG (nebo Graph RAG) nezbytností. Karpathy sám říká, že toto je vzor pro „personal knowledge management“, ne pro firemní deployment.
- Náklady na kontext jsou vysoké. Každý dotaz, který načte celou wiki do kontextu, spotřebuje 100K-200K vstupních tokenů. Při ceně Claude 3.5 Sonnet ($3/1M vstupních tokenů) je to přibližně $0.30-0.60 za dotaz. Při 20 dotazech denně to znamená $6-12/den neboli $180-360/měsíc. Context caching toto výrazně snižuje (až 10x), ale ne na nulu.
- Kvalita agenta je kritická. Celý vzor stojí na tom, že agent dělá kvalitní ingest – správně identifikuje entity, vytváří smysluplné křížové odkazy, aktualizuje existující stránky bez ztráty informací. Slabší modely mohou wiki postupně degradovat (opakování, nekonzistence, ztráta nuancí).
- Žádná automatická verifikace. Na rozdíl od kódu, kde máte testy, wiki nemá objektivní metriku kvality. Můžete provést lint, ale ten odhalí jen strukturální problémy (osiřelé stránky), ne faktické chyby. Lidská kontrola zůstává nezbytná.
- Časová investice do bootstrappingu. Vytvoření úvodního profilu, schématu a první sady zdrojů vyžaduje hodiny manuální práce. Pro někoho, kdo nemá jasnou představu o své znalostní doméně, je počáteční bariéra vysoká.
Praktické závěry a tipy
Pro individuální knowledge workery
Obsidian jako IDE, LLM jako programátor, wiki jako kódová základna. To je Karpathyho formulace a je přesná. Vaše role je kurace – vybíráte, co se do znalostní báze dostane, a kontrolujete kvalitu výstupů. Agent dělá těžkou práci: čte, sumarizuje, propojuje, udržuje.
Začněte s jednou doménou. Nepokoušejte se zkompilovat celý svůj profesní život najednou. Vyberte jednu oblast (např. „regulace AI v EU“ nebo „architektura mikroslužeb“) a vytvořte wiki jen pro ni. Rozšiřujte postupně.
Používejte context caching. Pokud váš poskytovatel API podporuje caching (Anthropic, Google), aktivujte ho. Celá wiki se cachuje po prvním načtení a další dotazy ve stejné relaci jsou řádově levnější.
Pro vývojáře AI nástrojů
Tento vzor je implementovatelný za víkend. Celá architektura jsou tři adresáře, jeden schéma soubor a tři prompty (ingest, query, lint). Žádný framework, žádná databáze. Pokud stavíte AI produkty pro knowledge management, toto je minimální viable architektura, kterou můžete prototypovat za den.
RAG a LLM Wiki nejsou protiklady. Pro osobní znalostní management je wiki lepší. Pro enterprise deployment s miliony dokumentů je RAG nezbytný. Hybridní přístup – wiki jako „rychlá paměť“ nad RAG jako „hluboká paměť“ – je pravděpodobně optimální architektura.
Pro strategické rozhodování
Znalosti jsou aktivum, ne odpad. Většina organizací zachází se znalostmi jako s odpadem – dokumenty se vytvoří, uloží někam na SharePoint a nikdy se aktivně nespravují. LLM Wiki ukazuje, že znalosti mohou být živý, akumulativní systém, který se s každým přidaným zdrojem stává hodnotnějším. To je koncepční posun, ne jen technický trik.
Co udělat jako první krok
- Přečíst gist. Karpathyho originální
llm-wiki.mdna GitHubu je krátký (cca 2 000 slov) a přesný. Investujte 10 minut čtením. - Vytvořit adresářovou strukturu. Tři složky:
raw/(surové zdroje),wiki/(kompilované znalosti),schema/(instrukce). JedenAGENTS.mdsoubor s instrukcemi pro agenta. - Napsat profil. Popište v 500 slovech svou profesní doménu, klíčové projekty a oblasti zájmu. To je zárodek, ze kterého wiki vyroste.
- Provést první ingest. Vložte 5-10 klíčových dokumentů do
raw/a požádejte agenta o zpracování. Zkontrolujte, zda vznikly smysluplné wiki stránky s křížovými odkazy. - Nastavit pravidelný lint. Jednou týdně požádejte agenta o audit wiki. Časem zjistíte, kde jsou vaše znalostní mezery.
Závěr
Karpathyho LLM Wiki je přesně ten druh myšlenky, která vypadá triviálně, dokud si neuvědomíte, jak zásadně mění paradigma. Většina z nás používá AI jako jednorázový nástroj – zeptáme se, dostaneme odpověď, zapomeneme. Wiki vzor říká: nechte AI budovat něco trvalého. Každý vstup, každá konverzace, každá přečtená kniha ať přispěje do struktury, která přetrvá a zhutňuje se.
Není to náhrada za RAG – je to jeho evoluce pro jednotlivce. A v době, kdy kontextová okna překračují 200 tisíc tokenů, je to poprvé prakticky proveditelné.
Zdroje a reference
- llm-wiki.md – Karpathyho originální GitHub Gist, duben 2026
- Obsidian – doporučený Markdown editor s podporou wiki-linků
- Claude 3.5 Sonnet Context Caching – dokumentace ke context cachingu
- RAG má tři generace – náš článek o evoluci RAG architektur
Shrnutí
| Co to je | Vzor od Andreje Karpathyho, kde LLM agent spravuje osobní znalostí bázi jako strukturovanou wiki – místo opakovaného vyhledávání v dokumentech (RAG) znalosti „kompiluje“ do trvalé, propojené struktury. |
| K čemu to je | Osobní znalostí management pro knowledge workery, výzkumníky a vývojáře, kteří chtějí, aby se jejich znalosti akumulovaly. |
| Klíčové číslo | 150 000 slov wiki se vejde celé do kontextového okna Claude 3.5 (200K tokenů) – žádné vyhledávání, žádná fragmentace. |
| Hlavní riziko | Škáluje se jen na osobní úroveň; náklady $0.30-0.60/dotaz bez cachingu; kvalita závisí na schopnostech agenta. |
| Alternativy | Tradiční RAG, Obsidian + manuální správa, Notion AI, Mem.ai |
Verdikt: Elegantní a okamžitě použitelný vzor pro jednotlivce s jasnou znalostí doménou. Pro enterprise nasazení nebo vágní znalostí potřeby je overhead neúměrný přínosu.
Podobné články
- RAG má tří generace. Většina týmů je stále na první – kontext pro pochopení, jak LLM Wiki překonává limitace Classic RAG
- MEMENTO: Jak naučit jazykové modely spravovat vlastní paměť – jiný přístup ke správě paměti LLM, tentokrát na úrovni inference enginu
- Skill-RAG: Když AI pozná, proč selhalo vyhledávání – diagnostika selhání RAG, které LLM Wiki obchází kompilací