RAG és tudásbázis-építés
Ez a modul azoknak szól, akik saját dokumentumaikból akarnak AI-t „oktatni". A RAG (Retrieval-Augmented Generation) ma az egyik leggyakoribb vállalati AI architektúra — mélyebb kontextus, kevesebb hallucináció, pontosabb válaszok.
RAG alapok
A RAG (Retrieval-Augmented Generation) egy architektúra, amely kombinálja a keresést és a szöveggenerálást. Ahelyett, hogy az AI csak a training adatából válaszolna, először megkeresi a releváns dokumentumokat a te adatbázisodból, majd azok alapján generálja a választ.
A RAG 4 lépése
Indexelés
Dokumentumaid chunk-okra (500–1000 token) darabolódnak és embedding vektorokká alakulnak
Keresés
Kérdésedre a rendszer megkeresi a leginkább releváns chunk-okat a vektortárból
Kontextus-injektálás
A talált chunk-ok bekerülnek az LLM promptjába mint kontextus
Generálás
Az LLM a kontextus alapján generálja a választ — forrásmegjelöléssel
Eszközök és frameworkök
Kezdőknek és nem technikai felhasználóknak az alábbi megoldások egyszerű belépési pontot adnak a RAG-alapú tudásbázis-építéshez.
| Eszköz | Mire jó |
|---|---|
| NotebookLM | Dokumentum feltöltés, kérdezés, podcast — teljesen ingyenes |
| Claude Projects | Dokumentumok + instrukciók = perszonalizált asszisztens |
| ChatGPT GPTs | Custom GPT saját tudásbázissal, megosztható |
| Dify | AI app platform — RAG + agentek + workflow, ingyenes tier |
Praktikus tippek
A chunk mérete kritikus döntés: 500–1000 token az optimális. Túl kicsi → kontextus elvész. Túl nagy → irreleváns infó kerül be.
Praktikus irányelvek
- →20–30% overlap a chunk-ok között — így nem vágod ketté a mondatokat
- →Adj hozzá metaadatokat (forrás, dátum, kategória) — így szűrhetsz kereséskor
- →Teszteld különböző méretekkel — nem minden dokumentumtípusra ugyanaz az optimális