Az utóbbi időben a mesterséges intelligencia egyre többször kerül olyan helyzetbe, ahol nem elég okosan fogalmazni, hanem tényleg jól kell tudni keresni. Egy vállalati tudásbázisban, egy szabályzat halmazban vagy akár egy hosszú kutatási anyagban a válasz sokszor nem egy mondat, hanem több apró részlet összekapcsolása. A klasszikus megközelítés ilyenkor egyszerűen szétdarabolja a szöveget, majd a leginkább hasonló részeket előszedi és ezekből próbál választ írni. Ez sok kérdésnél működik, de a bonyolultabbaknál gyakran pont a lényeg vész el: a kapcsolatok. Egy friss tanulmány viszont azt állítja, hogy a megoldás nem feltétlenül az, hogy még nagyobb szövegrészeket adunk a modellnek, hanem az, hogy másképp ábrázoljuk a tudást. Nem bekezdések halmazaként, hanem egy bejárható térképként, ahol apró tények, szereplők és forrásrészletek össze vannak kötve. A szerzők ToPG néven mutatták be megoldásukat
Miért izgalmas a tudás ilyen ábrázolása
A tanulmány kiindulópontja nagyon emberi: amikor gondolkodunk, nem bekezdéseket görgetünk a fejünkben, hanem állításokat és összefüggéseket. Ki mit mondott, mi miből következik, és hol van rá bizonyíték. A szerzők ezért a tudást apró, önmagukban értelmes tényállításokra bontják, és ezeket teszik a rendszer középpontjába. A gráfban háromféle dolog jelenik meg: a tényállítások, a bennük szereplő entitások, és azok a szövegrészletek, ahonnan az állítás származik. A lényeg az, hogy a tényállítás nem elbújik valahol egy hosszú szövegben, hanem első osztályú elemként létezik, és össze van kötve mindazzal, ami releváns hozzá.
Ez a szemlélet azért különösen erős, mert pont azt adja meg, ami a bekezdés alapú keresésből hiányzik: a struktúrát. Ha két külön dokumentumban van két fontos részlet, egy sima kereső könnyen mindkettőt megtalálja, de attól még nem fogja tudni, hogyan áll össze belőlük a válasz. Egy gráf viszont alapból az összekötésekre épít, így a rendszer nem csak találatokat ad, hanem útvonalakat is.
A kulcsfogás: bejárás kérdéshez igazítva
A ToPG nem csak felépít egy gráfot, hanem kitalál egy olyan működést, amiben a rendszer lépésről lépésre halad. A szerzők ezt Suggestion Selection ciklusnak nevezik. Ennek a lényege, hogy a rendszer először javasol lehetséges következő tényeket a gráfban, majd egy nyelvi modell kiválogatja közülük a tényleg relevánsakat, és ez lesz a következő lépés kiindulópontja. A javaslási rész egyszerre használja a gráf kapcsolatait és azt, hogy a kérdés szövegéhez mi hasonlít, a válogatás pedig visszajelzést ad, hogy merre érdemes tovább menni.
Ez kívülről úgy hangzik, mintha az MI nem csak keresne, hanem tényleg navigálna. Mintha egy térképen nem csak rámutatnánk néhány címre, hanem megterveznénk az útvonalat, közben pedig folyamatosan ellenőriznénk, hogy jó irányba haladunk e.
Mit mutatnak a mérések a GraphRAG körüli képről
A tanulmány egyik legfontosabb üzenete, hogy a gráfos megközelítés nem csodaszer mindenre. Egyszerű, tény jellegű kérdéseknél sokszor kifejezetten előnyös, ha a rendszer sűrű, önálló állításokat talál, és nem visz be túl sok körítést. A szerzők leírják, hogy a gráfos előny igazán a komplex, több lépéses kérdéseknél jön elő, ahol különálló bizonyítékokat kell összekötni, míg a sima tényszerű kérdéseknél a strukturális réteg akár minimális hasznot is adhat, sőt néha hátrányt jelent.
A másik fontos tanulság a költség. A szerzők összevetik több baseline token költségét, és azt írják, hogy GraphRAG a legdrágább, különösen a bemeneti oldalon. Ugyanakkor a ToPG bizonyos beállítások mellett olcsóbb lehet a válasz előállításában, miközben a mélyebb bejárás természetesen megemeli a teljes fogyasztást.
Ebből egy nagyon földközeli kép rajzolódik ki. A gráfos gondolkodás gyakran jobb minőséget ad a nehéz kérdéseknél, de meg kell fizetni az árát. A trükk az, hogy mikor éri meg, és mikor nem.
Miért lehet ez nagy lépés az agentek eszköztárában
Az igazán izgalmas rész nem is csak az, hogy egy kérdésre pontosabban válaszol e, hanem az, hogy ez a tudásábrázolás mennyire jól illik az agent jellegű rendszerekhez. Az agentek tipikusan több lépésben dolgoznak: célt bontanak, részfeladatot választanak, ellenőriznek, majd döntést hoznak. Ehhez nem elég egy jó idézet. Kell az is, hogy lássák, milyen szabály melyik kivétellel függ össze, mi a feltétel és mi a következmény, és honnan jön a bizonyíték.
A ToPG logikája pontosan erről szól. A szerzők szerint a lényeg nem feltétlenül a klasszikus, merev tudásgráf forma, hanem az, hogy apró, szemantikailag gazdag információ egységeken történjen a bejárás, ráadásul kérdéshez igazítva. Vagyis nem vakon sétálunk a gráfban, hanem a kérdés irányítja az útvonalat, és a válogató lépés folyamatosan tisztítja a zajt.
Ha ezt agentekkel összerakjuk, az eredmény könnyen az lehet, hogy a rendszer nem csak válaszol, hanem tényleg jobb eszközzé válik. Jobban meg tudja indokolni a döntéseit, jobban tud hivatkozni, és kevésbé esik bele abba a tipikus hibába, amikor egy félrevezető részlet túl nagy súlyt kap.
A végső egyensúly: mélység kontra költség
A tanulmány nyíltan beszél a korlátokról is. A gráf felépítése drága lehet, mert a tényállítások és entitások kinyerése önmagában erőforrást kér, és a futás közbeni válogató lépések is növelik a token fogyasztást. A szerzők ezért azt írják, hogy ez a megközelítés kevésbé jó ott, ahol minden költségkritikus, és főleg egyszerű kérdések jönnek.
Viszont ha a cél nem az, hogy a legolcsóbb választ kapjuk, hanem az, hogy egy összetett helyzetben megbízhatóbb, mélyebb, összefüggéseket is kezelő választ kapjunk, akkor a gráf alapú tudásábrázolás nagyon erős irány. Különösen akkor, ha a következő generációs agenteket nem csak csevegésre, hanem valódi munkafolyamatokra akarjuk használni.
Forrás: A Navigational Approach for Comprehensive RAG via Traversal over Proposition Graphs, arXiv 2026 január 8.
Címlapkép: Depositphotos