Совместная энтропия

Мера информации в теории вероятностей и информации
Вводящая в заблуждение [1] диаграмма Венна, показывающая аддитивные и субтрактивные отношения между различными информационными мерами , связанными с коррелированными переменными X и Y. Площадь, ограниченная обоими кругами, — это совместная энтропия H(X,Y). Круг слева (красный и фиолетовый) — это индивидуальная энтропия H(X), причем красный — это условная энтропия H(X|Y). Круг справа (синий и фиолетовый) — это H(Y), причем синий — это H(Y|X). Фиолетовый — это взаимная информация I(X;Y).

В теории информации совместная энтропия является мерой неопределенности, связанной с набором переменных . [2]

Определение

Совместная энтропия Шеннонабитах ) двух дискретных случайных величин и с изображениями определяется как [3] : 16  X {\displaystyle X} Y {\displaystyle Y} X {\displaystyle {\mathcal {X}}} Y {\displaystyle {\mathcal {Y}}}

где и являются частными значениями и , соответственно, является совместной вероятностью появления этих значений вместе и определяется как 0, если . x {\displaystyle x} y {\displaystyle y} X {\displaystyle X} Y {\displaystyle Y} P ( x , y ) {\displaystyle P(x,y)} P ( x , y ) log 2 [ P ( x , y ) ] {\displaystyle P(x,y)\log _{2}[P(x,y)]} P ( x , y ) = 0 {\displaystyle P(x,y)=0}

Для более чем двух случайных величин это расширяется до X 1 , . . . , X n {\displaystyle X_{1},...,X_{n}}

где — частные значения , соответственно, — вероятность того, что эти значения появятся вместе, и определяется как 0, если . x 1 , . . . , x n {\displaystyle x_{1},...,x_{n}} X 1 , . . . , X n {\displaystyle X_{1},...,X_{n}} P ( x 1 , . . . , x n ) {\displaystyle P(x_{1},...,x_{n})} P ( x 1 , . . . , x n ) log 2 [ P ( x 1 , . . . , x n ) ] {\displaystyle P(x_{1},...,x_{n})\log _{2}[P(x_{1},...,x_{n})]} P ( x 1 , . . . , x n ) = 0 {\displaystyle P(x_{1},...,x_{n})=0}

Характеристики

Неотрицательность

Совместная энтропия набора случайных величин является неотрицательным числом.

H ( X , Y ) 0 {\displaystyle \mathrm {H} (X,Y)\geq 0}
H ( X 1 , , X n ) 0 {\displaystyle \mathrm {H} (X_{1},\ldots ,X_{n})\geq 0}

Больше индивидуальных энтропий

Совместная энтропия набора переменных больше или равна максимуму всех индивидуальных энтропий переменных в наборе.

H ( X , Y ) max [ H ( X ) , H ( Y ) ] {\displaystyle \mathrm {H} (X,Y)\geq \max \left[\mathrm {H} (X),\mathrm {H} (Y)\right]}
H ( X 1 , , X n ) max 1 i n { H ( X i ) } {\displaystyle \mathrm {H} {\bigl (}X_{1},\ldots ,X_{n}{\bigr )}\geq \max _{1\leq i\leq n}{\Bigl \{}\mathrm {H} {\bigl (}X_{i}{\bigr )}{\Bigr \}}}

Меньше или равно сумме индивидуальных энтропий

Совместная энтропия набора переменных меньше или равна сумме индивидуальных энтропий переменных в наборе. Это пример субаддитивности . Это неравенство является равенством тогда и только тогда, когда и статистически независимы . [ 3] : 30  X {\displaystyle X} Y {\displaystyle Y}

H ( X , Y ) H ( X ) + H ( Y ) {\displaystyle \mathrm {H} (X,Y)\leq \mathrm {H} (X)+\mathrm {H} (Y)}
H ( X 1 , , X n ) H ( X 1 ) + + H ( X n ) {\displaystyle \mathrm {H} (X_{1},\ldots ,X_{n})\leq \mathrm {H} (X_{1})+\ldots +\mathrm {H} (X_{n})}

Связь с другими мерами энтропии

Совместная энтропия используется в определении условной энтропии [3] : 22 

H ( X | Y ) = H ( X , Y ) H ( Y ) {\displaystyle \mathrm {H} (X|Y)=\mathrm {H} (X,Y)-\mathrm {H} (Y)\,} ,

и

H ( X 1 , , X n ) = k = 1 n H ( X k | X k 1 , , X 1 ) {\displaystyle \mathrm {H} (X_{1},\dots ,X_{n})=\sum _{k=1}^{n}\mathrm {H} (X_{k}|X_{k-1},\dots ,X_{1})} .

Он также используется в определении взаимной информации [3] : 21 

I ( X ; Y ) = H ( X ) + H ( Y ) H ( X , Y ) {\displaystyle \operatorname {I} (X;Y)=\mathrm {H} (X)+\mathrm {H} (Y)-\mathrm {H} (X,Y)\,} .

В квантовой теории информации совместная энтропия обобщается в совместную квантовую энтропию .

Совместная дифференциальная энтропия

Определение

Вышеприведенное определение относится к дискретным случайным величинам и справедливо в случае непрерывных случайных величин. Непрерывная версия дискретной совместной энтропии называется совместной дифференциальной (или непрерывной) энтропией . Пусть и будут непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная совместная энтропия определяется как [3] : 249  X {\displaystyle X} Y {\displaystyle Y} f ( x , y ) {\displaystyle f(x,y)} h ( X , Y ) {\displaystyle h(X,Y)}

Для более чем двух непрерывных случайных величин определение обобщается следующим образом: X 1 , . . . , X n {\displaystyle X_{1},...,X_{n}}

Интеграл берется по носителю . Возможно, что интеграл не существует, и в этом случае мы говорим, что дифференциальная энтропия не определена . f {\displaystyle f}

Характеристики

Как и в дискретном случае, совместная дифференциальная энтропия набора случайных величин меньше или равна сумме энтропий отдельных случайных величин:

h ( X 1 , X 2 , , X n ) i = 1 n h ( X i ) {\displaystyle h(X_{1},X_{2},\ldots ,X_{n})\leq \sum _{i=1}^{n}h(X_{i})} [3] : 253 

Для двух случайных величин справедливо следующее цепное правило:

h ( X , Y ) = h ( X | Y ) + h ( Y ) {\displaystyle h(X,Y)=h(X|Y)+h(Y)}

В случае более двух случайных величин это обобщается до: [3] : 253 

h ( X 1 , X 2 , , X n ) = i = 1 n h ( X i | X 1 , X 2 , , X i 1 ) {\displaystyle h(X_{1},X_{2},\ldots ,X_{n})=\sum _{i=1}^{n}h(X_{i}|X_{1},X_{2},\ldots ,X_{i-1})}

Совместная дифференциальная энтропия также используется при определении взаимной информации между непрерывными случайными величинами:

I ( X , Y ) = h ( X ) + h ( Y ) h ( X , Y ) {\displaystyle \operatorname {I} (X,Y)=h(X)+h(Y)-h(X,Y)}

Ссылки

  1. ^ DJC Mackay (2003). Теория информации, выводы и алгоритмы обучения . Bibcode :2003itil.book.....M.: 141 
  2. ^ Тереза ​​М. Корн ; Корн, Гранино Артур (январь 2000 г.). Математический справочник для ученых и инженеров: определения, теоремы и формулы для справки и обзора . Нью-Йорк: Dover Publications. ISBN 0-486-41147-8.
  3. ^ abcdefg Томас М. Кавер; Джой А. Томас (18 июля 2006 г.). Элементы теории информации . Хобокен, Нью-Джерси: Wiley. ISBN 0-471-24195-4.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Joint_entropy&oldid=1256479675"