Szögi Roland: Sztochasztikus rekurzív optimalizálás (online tanuló algoritmusok)

Önálló projekt, szakmai gyakorlat I

2022/23 I. félév

Témavezető:
Csáji Balázs Csanád (SZTAKI és ELTE TTK Valószínűségelméleti és Statisztika Tanszék)

Sztochasztikus optimalizálási feladatok megoldására gyakran használnak rekurzív módszereket (vö. sztochasztikus approximáció). A sztochasztikus optimalizálási algoritmusok számos területen kulcsfontosságúak, a gépi tanulástól a jelfeldolgozásig és irányításelméletig. Amikor egy ismeretlen, zajosan megfigyelt függvény optimalizálása a cél, gyakran a deriváltak becslésére perturbált paraméterekben vett lekérdezéseket használunk, lásd például, az SPSA (Simultaneous Perturbation Stochastic Approximation) és a Gauss simítás módszereket. Mivel a gyakorlati alkalmazásoknál a különböző dimenziók eltérő skálázással rendelkezhetnek, így a lépésközt (vagy tanulási rátát) sokszor dimenziónként állítjuk adaptívan (például, AdaGrad és ADAM). A kutatási célja lehet: (1) a lépésköz vagy a deriváltak becslésére használt perturbációkat az optimalizálandó függvény valamiyen (becsült) tulajdonságát kihasználva választó módszerek vizsgálata és megfelelő regularitási feltételek melletti finomhangolása, továbbfejlesztése; (2) gyorsítási technikák (momentum, Nyesztyerov, stb.) vizsgálata; vagy (3) sztochasztikus optimalizálás absztrakt (pl., Hilbert) terekben.

Hivatkozások

  • James C. Spall: Introduction to Stochastic Search and Optimization: Estimation, Simulation, and Control, Vol. 65, John Wiley & Sons, 2005.
  • Albert Benveniste, Michel Métivier, Pierre Priouret: Adaptive Algorithms and Stochastic Approximations, Springer, 1990.
  • John C. Duchi, Elad Hazan, and Yoram Singer: Adaptive Subgradient Methods for Online Learning and Stochastic Optimization, Journal of Machine Learning Research, 12.7, 2011.
  • John C. Duchi, Peter L. Bartlett, and Martin J. Wainwright: Randomized Smoothing for Stochastic Optimization, SIAM Journal on Optimization, 22.2, 2012, pp. 674-701.