Sztochasztikus rekurzív optimalizálás (online tanuló algoritmusok)

Témavezető: Csáji Balázs Csanád
SZTAKI és ELTE TTK Valószínűségelméleti és Statisztika Tanszék
email: csaji@sztaki.hu

Projekt leírás

Sztochasztikus optimalizálási feladatok megoldására gyakran használnak rekurzív módszereket (vö. sztochasztikus approximáció). A sztochasztikus optimalizálási algoritmusok számos területen kulcsfontosságúak, a gépi tanulástól a jelfeldolgozásig és irányításelméletig. Amikor egy ismeretlen, zajosan megfigyelt függvény optimalizálása a cél, gyakran a deriváltak becslésére perturbált paraméterekben vett lekérdezéseket használunk, lásd például, az SPSA (Simultaneous Perturbation Stochastic Approximation) és a Gauss simítás módszereket. Mivel a gyakorlati alkalmazásoknál a különböző dimenziók eltérő skálázással rendelkezhetnek, így a lépésközt (vagy tanulási rátát) sokszor dimenziónként állítjuk adaptívan (például, AdaGrad és ADAM). A kutatási célja lehet: (1) a lépésköz vagy a deriváltak becslésére használt perturbációkat az optimalizálandó függvény valamiyen (becsült) tulajdonságát kihasználva választó módszerek vizsgálata és megfelelő regularitási feltételek melletti finomhangolása, továbbfejlesztése; (2) gyorsítási technikák (momentum, Nyesztyerov, stb.) vizsgálata; vagy (3) sztochasztikus optimalizálás absztrakt (pl., Hilbert) terekben.

Előfeltételek

Hivatkozások

Korábbi hallgatók