всего просмотров: 2234
Оценка читателей: голосов 0
1. Поляк Б.Т. Введение в оптимизацию. М.: Наука, 1983.
2. Граничин О.Н., Поляк Б.Т. Рандомизированные алгоритмы оценивания и оптимизации при почти произвольных помехах. М.: Наука, 2003.
3. Duchi J.C., Jordan M.I., Wainwright M.J., Wibisono A. Optimal Rates for ZeroOrder Convex Optimization: The Power of Two Function Evaluations // IEEE Transact. Inf. 2015. V. 61. No. 5. P. 2788–2806.
4. Shamir O. An Optimal Algorithm for Bandit and Zero-Order Convex Optimization with Two-Point Feedback // e-print, 2015. URL: http://arxiv.org/pdf/1507.08752v1.pdf
5. Гасников А.В., Двуреченский П.Е., Нестеров Ю.Е. Стохастические градиентные методы с неточным оракулом // Тр. МФТИ. 2016. Т. 8. № 1. С. 41–91. URL: https://arxiv.org/ftp/arxiv/papers/1411/1411.4218.pdf
6. Гасников А.В., Лагуновская А.А., Усманова И.Н. и др. Безградиентные проксметоды с неточным оракулом для негладких задач выпуклой стохастической оптимизации на симплексе // АиТ. 2016. № 10. С. 57–77.
7. Гасников А.В., Крымова Е.А., Лагуновская А.А. и др. Стохастическая онлайн оптимизация. Одноточечные и двухточечные нелинейные многорукие бандиты. Выпуклый и сильно выпуклый случаи // АиТ. 2017. № 2. С. 36–49.
8. Немировский А.С., Юдин Д.Б. Сложность задач и эффективность методов оптимизации. М.: Наука, 1979.
9. Agarwal A., Dekel O., Xiao L. Optimal algorithms for online convex optimization with multi-point bandit feedback // Proc. 23 Annual Conf. on Learning Theory. 2010. P. 28–40.
10. Bubeck S., Cesa-Bianchi N. Regret Analysis of Stochastic and Nonstochastic MultiArmed Bandit Problems // Found. Trends Machine Learning. 2012. V. 5. No. 1. P. 1–122.
11. Nemirovski A. Lectures on modern convex optimization analysis, algorithms, and engineering applications. Philadelphia: SIAM, 2013. URL: http://www2.isye.gatech.edu/∼nemirovs/Lect_ModConvOpt.pdf
12. Shapiro A., Dentcheva D., Ruszczynski A. Lecture on stochastic programming. Modeling and theory. MPS-SIAM series on Optimization, 2014.
13. Nesterov Yu. Primal-dual subgradient methods for convex problems // Math. Program. Ser. B. 2009. V. 120(1). P. 261–283.
14. Duchi J.C. Introduction lectures in stochastic programming // Park City Math. Ser. 2016. URL: http://stanford.edu/˜jduchi/PCMIConvex/Duchi16.pdf
15. Juditsky A., Nesterov Yu. Deterministic and Stochastic Primal-Dual Subgradient Algorithms for Uniformly Convex Minimization // Stoch. Syst. 2014. V. 4. No. 1. P. 44–80.
16. Hazan E., Kale S. Beyond the Regret Minimization Barrier: Optimal Algorithms for Stochastic Strongly-Convex Optimization // JMLR. 2014. V. 15. P. 2489–2512.
17. Guiges V., Juditsky A., Nemirovski A. Non-asymptotic confidence bounds for the optimal value of a stochastic program // e-print, 2016. URL: https://arxiv.org/pdf/1601.07592.pdf
18. Ball K. An Elementary Introduction to Modern Convex Geometry // Flavors of Geometry. Ed. by S. Levy. Cambridge Univ. Press. 1997. P. 1–58. (Math Sci. Res. Inst. Publ., V. 31.)
19. Усманова И.Н. Безградиентный метод зеркального спуска с двухточечным зашумленным оракулом: дипломная работа бакалавра по специальности “Прикладная математика и физика”. Долгопрудный, МФТИ, 2015.
20. Эванс Л.К., Гариепе К.Ф. Теория меры и тонкие свойства функций. Новосибирск: Науч. кн. (ИДМИ), 2002.