A gépi tanulás egyik alapproblémája az általánosítóképesség kérdése: egy véges minta alapján becsült modell egy ismeretlen, új mintaelemen vett hatékonyságának garantálása. Ennek a problémakörnek egy változata, amikor az új megfigyelést egy megadott valószínűséggel tartalmazó predikciós tartomány konstruálása a cél. Ha például független, azonos eloszlású (i.i.d.) bemenet-kimenet párjaink vannak, akkor egy új, véletlen bemenet függvényében szeretnénk a kimenetre egy garantált tartománybecslést (skalár esetben intervallumot), vagy ha egy idősorból van egy véges mintánk, a következő egy vagy több megfigyelésre szeretnénk egy sztochasztikusan garantált tartományt. A feladat eloszlás-független predikciós tartomány konstrukciók vizsgálata és strukturális feltevések alapján való finomítása.
Referenciák
- Glenn Shafer and Vladimir Vovk: A Tutorial on Conformal Prediction, Journal of Machine Learning Research, 9, Mar 2008, pp. 371-421.
- Algo Caré, Simone Garatti and Marco C. Campi: A Coverage Theory for Least Squares, Journal of the Royal Statistical Society B, 79, Part 5, 2017, pp. 1367–1389.
- Michael Wolf and Dan Wunderli: Bootstrap Joint Prediction Regions, Journal of Time Series Analysis, 36.3, 2015, pp. 352-376.
- Bernhard Schölkopf, and Alexander J. Smola: Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond, MIT Press, 2002.