Sztochasztikus optimalizálási feladatok megoldására gyakran használnak rekurzív módszereket (vö. sztochasztikus approximáció). A sztochasztikus optimalizálási algoritmusok számos területen kulcsfontosságúak, a gépi tanulástól a jelfeldolgozásig és irányításelméletig. Amikor egy ismeretlen, zajosan megfigyelt függvény optimalizálása a cél, gyakran a deriváltak becslésére perturbált paraméterekben vett lekérdezéseket használunk, lásd például, az SPSA (Simultaneous Perturbation Stochastic Approximation) és a Gauss simítás módszereket. Mivel a gyakorlati alkalmazásoknál a különböző dimenziók eltérő skálázással rendelkezhetnek, így a lépésközt (vagy tanulási rátát) sokszor dimenziónként állítjuk adaptívan (például, AdaGrad és ADAM). A kutatási célja lehet: (1) a lépésköz vagy a deriváltak becslésére használt perturbációkat az optimalizálandó függvény valamiyen (becsült) tulajdonságát kihasználva választó módszerek vizsgálata és megfelelő regularitási feltételek melletti finomhangolása, továbbfejlesztése; (2) gyorsítási technikák (momentum, Nyesztyerov, stb.) vizsgálata; vagy (3) sztochasztikus optimalizálás absztrakt (pl., Hilbert) terekben.
Hivatkozások
- James C. Spall: Introduction to Stochastic Search and Optimization: Estimation, Simulation, and Control, Vol. 65, John Wiley & Sons, 2005.
- Albert Benveniste, Michel Métivier, Pierre Priouret: Adaptive Algorithms and Stochastic Approximations, Springer, 1990.
- John C. Duchi, Elad Hazan, and Yoram Singer: Adaptive Subgradient Methods for Online Learning and Stochastic Optimization, Journal of Machine Learning Research, 12.7, 2011.
- John C. Duchi, Peter L. Bartlett, and Martin J. Wainwright: Randomized Smoothing for Stochastic Optimization, SIAM Journal on Optimization, 22.2, 2012, pp. 674-701.