В теории информации неравенство энтропийной мощности ( EPI ) является результатом, который относится к так называемой «энтропийной мощности» случайных величин . Оно показывает, что энтропийная мощность надлежащим образом хорошо ведущих себя случайных величин является супераддитивной функцией . Неравенство энтропийной мощности было доказано в 1948 году Клодом Шенноном в его основополагающей статье « Математическая теория связи ». Шеннон также предоставил достаточное условие для соблюдения равенства; Стэм (1959) показал, что это условие на самом деле необходимо.
Для случайного вектора X : Ω → R n с функцией плотности вероятности f : R n → R дифференциальная энтропия X , обозначаемая h ( X ), определяется как
а энтропийная мощность X , обозначаемая N ( X ), определяется как
В частности, N ( X ) = | K | 1/ n , когда X имеет нормальное распределение с ковариационной матрицей K .
Пусть X и Y — независимые случайные величины с функциями плотности вероятности в пространстве L p ( R n ) для некоторого p > 1. Тогда
Более того, равенство имеет место тогда и только тогда, когда X и Y являются многомерными нормальными случайными величинами с пропорциональными ковариационными матрицами .
Неравенство энтропийной мощности можно переписать в эквивалентной форме, которая явно не зависит от определения энтропийной мощности (см. ссылку Коста и Ковер ниже).
Пусть X и Y — независимые случайные величины , как указано выше. Тогда пусть X' и Y' — независимо распределенные случайные величины с гауссовыми распределениями, такие, что
Затем,