Безградиентные двухточечные методы решения задач стохастической негладкой выпуклой оптимизации при наличии малых шумов не случайной природы

 
Код статьиS000523100001245-3-1
DOI10.31857/S000523100001245-3
Тип публикации Статья
Статус публикации Опубликовано
Авторы
Аффилиация:
Национальный исследовательский университет Московский физико-технический институт
Сколковский университет науки и технологии
Адрес: Российская Федерация, Москва
Аффилиация:
Национальный исследовательский университет Московский физико-технический институт
Высшая школа экономики (Москва)
Институт проблем передачи информации им. А. А. Харкевича РАН
Адрес: Российская Федерация, Москва
Аффилиация: Национальный исследовательский университет
Адрес: Российская Федерация, Москва
Название журналаАвтоматика и телемеханика
ВыпускВыпуск 8
Страницы38-49
Аннотация

Изучаются негладкие выпуклые задачи стохастической оптимизации с двухточечным оракулом нулевого порядка, т.е. на каждой итерации наблюдению доступны значения реализации функции в двух выбранных точках. Эти задачи предварительно сглаживаются с помощью известной техники двойного сглаживания (Б. Т. Поляк), а затем решаются с помощью стохастического метода зеркального спуска. Получены условия на допустимый уровень шума неслучайной природы, проявляющегося при вычислении реализации функции, при котором сохраняется оценка скорости сходимости метода. 

Ключевые словаМетод зеркального спуска, шумы, стохастическая оптимизация, безградиентные методы, техника двойного сглаживания
Источник финансированияРабота выполнена при финансовой поддержке Российского научного фонда (проект № 14-50-00150).
Получено30.09.2018
Дата публикации30.09.2018
Кол-во символов871
Цитировать   Скачать pdf Для скачивания PDF необходимо авторизоваться
Размещенный ниже текст является ознакомительной версией и может не соответствовать печатной.
1
Hey. I sent a screenshot. Did you get it?

Hey. I sent a screenshot. Did you get it?

2 Hey. I sent a screenshot. Did you get it? Hey. I sent a screenshot. Did you get it?
3 Hey. I sent a screenshot. Did you get it? Hey. I sent a screenshot. Did you get it?
4 Hey. I sent a screenshot. Did you get it? Hey. I sent a screenshot. Did you get it?
5 Hey. I sent a screenshot. Did you get it?

всего просмотров: 2234

Оценка читателей: голосов 0

1. Поляк Б.Т. Введение в оптимизацию. М.: Наука, 1983.

2. Граничин О.Н., Поляк Б.Т. Рандомизированные алгоритмы оценивания и оптимизации при почти произвольных помехах. М.: Наука, 2003.

3. Duchi J.C., Jordan M.I., Wainwright M.J., Wibisono A. Optimal Rates for ZeroOrder Convex Optimization: The Power of Two Function Evaluations // IEEE Transact. Inf. 2015. V. 61. No. 5. P. 2788–2806.

4. Shamir O. An Optimal Algorithm for Bandit and Zero-Order Convex Optimization with Two-Point Feedback // e-print, 2015. URL: http://arxiv.org/pdf/1507.08752v1.pdf

5. Гасников А.В., Двуреченский П.Е., Нестеров Ю.Е. Стохастические градиентные методы с неточным оракулом // Тр. МФТИ. 2016. Т. 8. № 1. С. 41–91. URL: https://arxiv.org/ftp/arxiv/papers/1411/1411.4218.pdf

6. Гасников А.В., Лагуновская А.А., Усманова И.Н. и др. Безградиентные проксметоды с неточным оракулом для негладких задач выпуклой стохастической оптимизации на симплексе // АиТ. 2016. № 10. С. 57–77.

7. Гасников А.В., Крымова Е.А., Лагуновская А.А. и др. Стохастическая онлайн оптимизация. Одноточечные и двухточечные нелинейные многорукие бандиты. Выпуклый и сильно выпуклый случаи // АиТ. 2017. № 2. С. 36–49.

8. Немировский А.С., Юдин Д.Б. Сложность задач и эффективность методов оптимизации. М.: Наука, 1979.

9. Agarwal A., Dekel O., Xiao L. Optimal algorithms for online convex optimization with multi-point bandit feedback // Proc. 23 Annual Conf. on Learning Theory. 2010. P. 28–40.

10. Bubeck S., Cesa-Bianchi N. Regret Analysis of Stochastic and Nonstochastic MultiArmed Bandit Problems // Found. Trends Machine Learning. 2012. V. 5. No. 1. P. 1–122.

11. Nemirovski A. Lectures on modern convex optimization analysis, algorithms, and engineering applications. Philadelphia: SIAM, 2013. URL: http://www2.isye.gatech.edu/∼nemirovs/Lect_ModConvOpt.pdf

12. Shapiro A., Dentcheva D., Ruszczynski A. Lecture on stochastic programming. Modeling and theory. MPS-SIAM series on Optimization, 2014.

13. Nesterov Yu. Primal-dual subgradient methods for convex problems // Math. Program. Ser. B. 2009. V. 120(1). P. 261–283.

14. Duchi J.C. Introduction lectures in stochastic programming // Park City Math. Ser. 2016. URL: http://stanford.edu/˜jduchi/PCMIConvex/Duchi16.pdf

15. Juditsky A., Nesterov Yu. Deterministic and Stochastic Primal-Dual Subgradient Algorithms for Uniformly Convex Minimization // Stoch. Syst. 2014. V. 4. No. 1. P. 44–80.

16. Hazan E., Kale S. Beyond the Regret Minimization Barrier: Optimal Algorithms for Stochastic Strongly-Convex Optimization // JMLR. 2014. V. 15. P. 2489–2512.

17. Guiges V., Juditsky A., Nemirovski A. Non-asymptotic confidence bounds for the optimal value of a stochastic program // e-print, 2016. URL: https://arxiv.org/pdf/1601.07592.pdf

18. Ball K. An Elementary Introduction to Modern Convex Geometry // Flavors of Geometry. Ed. by S. Levy. Cambridge Univ. Press. 1997. P. 1–58. (Math Sci. Res. Inst. Publ., V. 31.)

19. Усманова И.Н. Безградиентный метод зеркального спуска с двухточечным зашумленным оракулом: дипломная работа бакалавра по специальности “Прикладная математика и физика”. Долгопрудный, МФТИ, 2015.

20. Эванс Л.К., Гариепе К.Ф. Теория меры и тонкие свойства функций. Новосибирск: Науч. кн. (ИДМИ), 2002.

Система Orphus

Загрузка...
Вверх