всего просмотров: 939
Оценка читателей: голосов 0
1. Rényi A. On Measures of Entropy and Information // Proc. 4th Berkeley Sympos. on Mathematical Statistics and Probability. Berkely, CA, USA. June 20 – July 30, 1960. Berkely: Univ. of California Press, 1961. V. 1. P. 547–561
2. van Erven T., Harremoёs P. Ré nyi Divergence and Kullback–Leibler Divergence // IEEE Trans. Inform. Theory. 2014. V. 60. № 7. P. 3797–3820.
3. Aczél J., Daróczy Z. On Measures of Information and Their Characterizations. New York: Academic Press, 1975
4. Прелов В.В. Склеивание вероятностных распределений и экстремальная задача для дивергенции // Пробл. передачи информ. 2015. Т. 51. № 2. С. 114–121.