Přeskočit na obsah
TelegramWhatsApp

Slovník

RAG

Retrieval-Augmented Generation (RAG) je technika pro zlepseni presnosti a relevance odpovedi z velkych jazykovych modelu poskytnutim externiho kontextu v case dotazu. Standardni LLM generuje odpovedi vylucne na zaklade vzorcu naucených behem trenovani, coz znamena, ze nema znalosti udalosti po svem trénovaciom cutoff a nema pristup k firemnim nebo real-time informacim. RAG to resi ziskavanim relevantniho obsahu z externi znalostni baze pred generovanim odpovedi.

Workflow ma dve hlavni faze. Nejprve krok ziskavani prohledava uloziste dokumentu -- typicky vektorovou databazi -- pro obsah semanticky podobny prichozímu dotazu. Ziskany text se pak spoji s dotazem uzivatele a preda jazykovemu modelu jako kontext. Model generuje svou odpoved podminenou jak originalní otazkou, tak ziskanym materialem, coz zakotvi vystup v realnych, overitelnych zdrojich.

RAG je dnes standardnim vzorem v enterprise AI aplikacich. Bezne pouziti zahrnuje interne znalostni baze, kde zamestnanci mohou dotazovat dokumenty spolecnosti, systemy zakaznicke podpory ziskavajici navody k produktum, nastroje pravniho vyzkumu prohledavajici soudni pravo a jakoukoli aplikaci, kde presnost a pripisovani zdroju jsou dulezitejsi nez kreativni generovani.

Kvalita RAG systemu silne zavisi na kroku ziskavani. Pokud jsou ziskany spatne useky, model bud produkuje nespravne odpovedi nebo rika, ze nemuze pomoct. Strategie chuknkovani, kvalita modelu embeddings a relevancni hodnoceni vyznamne ovlivnuji kvalitu vystupu. Budovani spolehlivelneho RAG pipeline vyzaduje pecilivé hodnoceni a iteraci, ne jen propojeni komponent.