где и являются частными значениями и , соответственно, является совместной вероятностью появления этих значений вместе и определяется как 0, если .
Для более чем двух случайных величин это расширяется до
Ур.2
где — частные значения , соответственно, — вероятность того, что эти значения появятся вместе, и определяется как 0, если .
Характеристики
Неотрицательность
Совместная энтропия набора случайных величин является неотрицательным числом.
Больше индивидуальных энтропий
Совместная энтропия набора переменных больше или равна максимуму всех индивидуальных энтропий переменных в наборе.
Меньше или равно сумме индивидуальных энтропий
Совместная энтропия набора переменных меньше или равна сумме индивидуальных энтропий переменных в наборе. Это пример субаддитивности . Это неравенство является равенством тогда и только тогда, когда и статистически независимы . [ 3] : 30
Связь с другими мерами энтропии
Совместная энтропия используется в определении условной энтропии [3] : 22
Вышеприведенное определение относится к дискретным случайным величинам и справедливо в случае непрерывных случайных величин. Непрерывная версия дискретной совместной энтропии называется совместной дифференциальной (или непрерывной) энтропией . Пусть и будут непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная совместная энтропия определяется как [3] : 249
Ур.3
Для более чем двух непрерывных случайных величин определение обобщается следующим образом:
Ур.4
Интеграл берется по носителю . Возможно, что интеграл не существует, и в этом случае мы говорим, что дифференциальная энтропия не определена .
Характеристики
Как и в дискретном случае, совместная дифференциальная энтропия набора случайных величин меньше или равна сумме энтропий отдельных случайных величин:
[3] : 253
Для двух случайных величин справедливо следующее цепное правило:
В случае более двух случайных величин это обобщается до: [3] : 253
Совместная дифференциальная энтропия также используется при определении взаимной информации между непрерывными случайными величинами:
Ссылки
^ DJC Mackay (2003). Теория информации, выводы и алгоритмы обучения . Bibcode :2003itil.book.....M.: 141
^ Тереза М. Корн ; Корн, Гранино Артур (январь 2000 г.). Математический справочник для ученых и инженеров: определения, теоремы и формулы для справки и обзора . Нью-Йорк: Dover Publications. ISBN0-486-41147-8.
^ abcdefg Томас М. Кавер; Джой А. Томас (18 июля 2006 г.). Элементы теории информации . Хобокен, Нью-Джерси: Wiley. ISBN0-471-24195-4.