Yann LeCun, a Meta mesterséges intelligencia (AI) részlegének vezető kutatója, nem ért egyet a jelenlegi AI fejlesztések irányával. Szerinte az emberi szintű intelligenciához nem elegendő a jelenleg használt nagy nyelvi modellek tovább fejlesztése és más technológiai alapokra lesz szükség.
A mesterséges intelligencia világa egyre nagyobb tempóban fejlődik, de vajon a helyes irányba halad-e? Yann LeCun, a Meta vezető mesterséges intelligencia-tudósa, a Las Vegasban tartott CES konferencián kijelentette, hogy a jelenlegi nagy nyelvi modellek (LLM-ek) – amilyen az OpenAI által fejlesztett ChatGPT vagy a Meta LLaMa modelljei – nem elegendőek az emberi szintű intelligencia, más néven általános mesterséges intelligencia (AGI) eléréséhez.
Teljesen elképzelhetetlen, hogy a ma ismert nagy nyelvi modellek közül bármelyik is megközelítené az emberi intelligenciát. Ez egyszerűen nem fog megtörténni.
Yann Le Cun – a Meta vezető AI kutatója
LeCun szerint az LLM-ek működési alapelvei, amelyek végső soron statisztikai összefüggésekre épülnek, messze állnak az emberi értelem komplexitásától.
A Meta egyik vezető alakjának állításai ellentmondanak az OpenAI vezérigazgatójának, Sam Altman kommentjével, melyeket az új o3 modellük kapcsán mondott. Bár az AGI definíciója elég zavaros az o3 bejelentése során erősen sugallták, hogy az új modell – fantasztikus teljesítményt nyújtva – az emberi intelligenciát meghaladva teljesített egy LLM-ek értékelésére kifejlesztett tesztet. Altman egyébként rendszeresen jelöli meg hosszútávú víziójaként az AGI kifejlesztését, mint technológiai választ az emberiség problémáira.
A nagy nyelvi modellek korlátai
Az LLM-ek alapvetően úgy működnek, hogy egy szövegrészlet alapján jósolják meg a legvalószínűbb következő szavakat. Bár ezek az algoritmusok lenyűgöző teljesítményre képesek, nem rendelkeznek az emberi gondolkodás rugalmasságával. LeCun szerint az ilyen típusú rendszerek egy szűk spektrumon belül rendkívül jól teljesítenek, de ez nem jelent valódi intelligenciát.
Példaként említette, hogy bár a mesterséges intelligencia már képes sakkbajnokokat legyőzni, vagy autókat vezetni, ezek az algoritmusok egyáltalán nem univerzálisak. Egy mesterséges intelligencia például remek diagnosztikai eszköz lehet, de egy egyszerű fizikai probléma, például egy csap javítása meghaladja a képességeit.
A skálázás határai
LeCun hangsúlyozta, hogy az LLM-ek teljesítményének növelése érdekében végzett folyamatos skálázás (nagyobb adatbázisok és erősebb számítási kapacitások alkalmazása) a hatékonyság csökkenéséhez vezet.
Kontextus képpen ma már egy néhány milliárd paraméteres modell (ez kifejezetten kicsinek számít az LLM-ek világában) is kiváló teljesítményt tud nyújtani egy-egy specializált területen. Egy ilyen kisebb modell egy közepesen erős számítógépen is elfut és jó eredményeket ad. Ahhoz azonban hogy az olyan népszerű megoldások, mint az OpenAI, a Meta vagy Anthropic modelljei gyakorlatilag bármilyen kérdésre értékelhető választ adjanak nem elég néhány milliárd paraméter. Az OpenAI modelljeinek paraméter számai nem publikusak, de találgatások szerint több billiárd paraméterrel rendelkeznek legújabb modelljeik.
Paraméterek: Az LLM-ek esetében a paraméterek olyan apró, finomhangolható beállítások, amelyek meghatározzák, hogyan értelmezi és hozza létre a modell a szövegeket. A tanítás során a modell úgy „tekergeti” ezeket a paramétereket, mintha rengeteg kis szabályzógomb lenne, hogy minél pontosabban megtanulja, miként válaszoljon a feltett kérdésekre.
Amire LeCun is utalt, azaz hogy azzal, hogy megsokszorozzuk a paraméter számot nem skálázódik arányosan a teljesítmény. Az legerősebb OpenAI modellek nem nyújtanak több százszor jobb teljesítményt, mint az akár nyílt forráskódú ingyenes kisebb modellek. A legtöbb gyakran használt nagy nyelvi modell értékelő teszten még csak kétszer olyan jól sem teljesítenek. A paraméterekkel növeléssel tehát nem skálázódik a teljesítmény, a költségek azonban nagyon is. A legerősebb LLM-ek „tanítása” akár több hónapot és több millió dollárt is felemészthet. Ez pedig se az üzleti megtérülés, se a technológiai határok feszegetésének szempontjából nem mindegy.
Új irányok az AI fejlődésében
LeCun azonban nem mondható pesszimistának, meg is nevezte a technológiát, amivel elérhető lehet a sokak által áhított AGI. Véleménye szerint a „generatív világmodellek” (Generative World Models), amelyek virtuális szimulációkban képesek tanulni, forradalmasíthatják a mesterséges intelligencia alkalmazásait, például a robotika területén. Az ilyen modellek lehetővé teszik, hogy a robotok kockázat nélkül tanuljanak komplex feladatokat.
Az AI szekértő szerint három-öt éven belül érhetünk el áttörést az AI-al kapcsolatos új területeken, mint például a robotikában. Azonban az emberi szintű intelligencia eléréséhez még hosszú út áll előttünk, mivel a jelenlegi rendszerek távol állnak attól, hogy valóban „értsenek” vagy kreatívan gondolkodjanak.
(Forrás: TechCrunch, PYMNTS)
(Depositphotos: Címlapkép)