Распределение вероятностей
В теории вероятностей , статистике и машинном обучении непрерывное распределение Бернулли [1] [2] [3] представляет собой семейство непрерывных распределений вероятностей, параметризованных одним параметром формы , определенным на единичном интервале , как:
Непрерывное распределение Бернулли возникает в глубоком обучении и компьютерном зрении , в частности, в контексте вариационных автокодировщиков , [4] [5] для моделирования интенсивности пикселей естественных изображений. Как таковое, оно определяет надлежащий вероятностный аналог для обычно используемой двоичной кросс-энтропийной потери, которая часто применяется к непрерывным, -значным данным. [6] [7] [8] [9] Такая практика равносильна игнорированию нормализующей константы непрерывного распределения Бернулли, поскольку двоичная кросс-энтропийная потеря определяет только истинное логарифмическое правдоподобие для дискретных, -значных данных.
Непрерывный Бернулли также определяет экспоненциальное семейство распределений. Записывая для натурального параметра , плотность можно переписать в канонической форме: .
Статистический вывод
При наличии выборки точек с , оценка максимального правдоподобия представляет собой эмпирическое среднее ,
Эквивалентно, оценка для натурального параметра — это логарифм ,
Распределение Бернулли
Непрерывное распределение Бернулли можно рассматривать как непрерывную релаксацию распределения Бернулли , которое определяется на дискретном множестве функцией массы вероятности :
где — скалярный параметр между 0 и 1. Применение этой же функциональной формы к непрерывному интервалу приводит к непрерывной функции плотности вероятности Бернулли с точностью до нормировочной константы.
Бета-распределение
Бета -распределение имеет функцию плотности:
что можно переписать как:
где - положительные скалярные параметры, а представляет собой произвольную точку внутри 1- симплекса , . Меняя роли параметра и аргумента в этой функции плотности, получаем:
Это семейство идентифицируемо только с точностью до линейного ограничения , откуда получаем:
что в точности соответствует непрерывной плотности Бернулли.
Экспоненциальное распределение
Экспоненциальное распределение, ограниченное единичным интервалом, эквивалентно непрерывному распределению Бернулли с соответствующим [ каким? ] параметром.
Непрерывное категориальное распределение
Многомерное обобщение непрерывного Бернулли называется непрерывно-категоричным. [10]
Ссылки
- ^ Лоаиза-Ганем, Г. и Каннингем, Дж. П. (2019). Непрерывный Бернулли: исправление распространенной ошибки в вариационных автоэнкодерах. В Advances in Neural Information Processing Systems (стр. 13266-13276).
- ^ Дистрибутивы PyTorch. https://pytorch.org/docs/stable/distributions.html#continuousbernoulli
- ^ Tensorflow Probability. https://www.tensorflow.org/probability/api_docs/python/tfp/edward2/ContinuousBernoulli Архивировано 25 ноября 2020 г. на Wayback Machine
- ^ Кингма, Д. П. и Веллинг, М. (2013). Автоматическое кодирование вариационного байеса. Препринт arXiv arXiv:1312.6114.
- ^ Кингма, Д.П. и Веллинг, М. (2014, апрель). Стохастический градиент VB и вариационный автокодировщик. На Второй международной конференции по представлениям обучения, ICLR (т. 19).
- ^ Larsen, ABL, Sønderby, SK, Larochelle, H., & Winther, O. (2016, июнь). Автокодирование за пределами пикселей с использованием метрики выученного сходства. На Международной конференции по машинному обучению (стр. 1558-1566).
- ^ Цзян, З., Чжэн, И., Тан, Х., Тан, Б. и Чжоу, Х. (2017, август). Вариационное глубокое встраивание: неконтролируемый и генеративный подход к кластеризации. В трудах 26-й Международной совместной конференции по искусственному интеллекту (стр. 1965-1972).
- ^ Учебное пособие по PyTorch VAE: https://github.com/pytorch/examples/tree/master/vae.
- ^ Учебное пособие по Keras VAE: https://blog.keras.io/building-autoencoders-in-keras.html.
- ^ Гордон-Родригес, Э., Лоаиза-Ганем, Г. и Каннингем, Дж. П. (2020). Непрерывная категориальная: новое симплексно-значное экспоненциальное семейство. На 36-й Международной конференции по машинному обучению, ICML 2020. Международное общество машинного обучения (IMLS).