Мин -энтропия в теории информации — наименьшая из семейства энтропий Реньи , соответствующая наиболее консервативному способу измерения непредсказуемости набора результатов, как отрицательному логарифму вероятности наиболее вероятного результата. Различные энтропии Реньи все равны для равномерного распределения, но измеряют непредсказуемость неравномерного распределения по-разному. Мин-энтропия никогда не превышает обычную или энтропию Шеннона (которая измеряет среднюю непредсказуемость результатов), а та, в свою очередь, никогда не превышает энтропию Хартли или макс-энтропию , определяемую как логарифм числа результатов с ненулевой вероятностью.
Как и в случае с классической энтропией Шеннона и ее квантовым обобщением, энтропией фон Неймана , можно определить условную версию min-энтропии. Условная квантовая min-энтропия является одноразовым, или консервативным, аналогом условной квантовой энтропии .
Для интерпретации условной информационной меры предположим, что Алиса и Боб разделяют двухчастичное квантовое состояние . Алиса имеет доступ к системе , а Боб — к системе . Условная энтропия измеряет среднюю неопределенность, которую Боб имеет относительно состояния Алисы при выборке из своей собственной системы. Минимальную энтропию можно интерпретировать как расстояние состояния от максимально запутанного состояния.
Эта концепция полезна в квантовой криптографии в контексте усиления конфиденциальности (см., например, [1] ).
Определение классических распределений
Если — классическое конечное распределение вероятностей, его минимальная энтропия может быть определена как [2] Один из способов оправдать название величины — сравнить ее с более стандартным определением энтропии, которое читается как , и, таким образом, может быть записано кратко как математическое ожидание по распределению. Если вместо математического ожидания этой величины мы возьмем ее минимальное значение, мы получим в точности приведенное выше определение .
С операционной точки зрения, мин-энтропия равна отрицательному логарифму вероятности успешного угадывания результата случайного розыгрыша из . Это происходит потому, что оптимально угадывать элемент с наибольшей вероятностью, а шанс успеха равен вероятности этого элемента.
Определение квантовых состояний
Естественным способом обобщения «min-entropy» с классических на квантовые состояния является использование простого наблюдения, что квантовые состояния определяют классические распределения вероятностей при измерении в некотором базисе. Однако есть дополнительная сложность, заключающаяся в том, что одно квантовое состояние может привести к бесконечному числу возможных распределений вероятностей, в зависимости от того, как оно измеряется. Тогда естественным путем, учитывая квантовое состояние , по-прежнему определять как , но на этот раз определять как максимально возможную вероятность, которая может быть получена при измерении , максимизируя по всем возможным проективным измерениям. Используя это, можно получить рабочее определение, что min-entropy равна отрицательному логарифму вероятности успешного угадывания результата любого измерения .
Формально это приводит к определению, в котором мы максимизируем по набору всех проективных измерений , представляем результаты измерений в формализме POVM и, следовательно, являемся вероятностью наблюдения -го результата, когда измерение равно .
Более краткий метод записи двойной максимизации состоит в том, чтобы заметить, что любой элемент любого POVM является эрмитовым оператором, таким что , и, таким образом, мы можем эквивалентно напрямую максимизировать по ним, чтобы получить Фактически, эта максимизация может быть выполнена явно, и максимум получается, когда является проекцией на (любое из) наибольшее собственное значение(я) . Таким образом, мы получаем еще одно выражение для минимальной энтропии как: помня, что операторная норма эрмитова положительно полуопределенного оператора равна его наибольшему собственному значению.
Условные энтропии
Пусть — двудольный оператор плотности на пространстве . Минимальная энтропия обусловленного определяется как
где инфимум пробегает все операторы плотности в пространстве . Мера — это максимальная относительная энтропия, определяемая как
Гладкая минимальная энтропия определяется через минимальную энтропию.
где sup и inf пробегают операторы плотности, которые -близки к . Эта мера -близости определяется в терминах очищенного расстояния
Эти величины можно рассматривать как обобщения энтропии фон Неймана . Действительно, энтропия фон Неймана может быть выражена как
Это называется полностью квантовой асимптотической теоремой о равнораспределении. [3]
Сглаженные энтропии разделяют много интересных свойств с энтропией фон Неймана. Например, гладкая минимальная энтропия удовлетворяет неравенству обработки данных: [4]
В дальнейшем мы будем опускать нижний индекс у min-энтропии, когда из контекста очевидно, в каком состоянии она оценивается.
Минимальная энтропия как неопределенность классической информации
Предположим, что агент имеет доступ к квантовой системе , состояние которой зависит от некоторой классической переменной . Кроме того, предположим, что каждый из ее элементов распределен в соответствии с некоторым распределением . Это можно описать следующим состоянием над системой .
где образуют ортонормальный базис. Мы хотели бы узнать, что агент может узнать о классической переменной . Пусть будет вероятностью того, что агент угадает при использовании оптимальной стратегии измерения
где — POVM, которая максимизирует это выражение. Можно показать [5] , что этот оптимум может быть выражен в терминах min-энтропии как
Если состояние является продуктом состояния т.е. для некоторых операторов плотности и , то корреляция между системами и отсутствует . В этом случае оказывается, что
Поскольку условная минимальная энтропия всегда меньше условной энтропии фон Неймана, то отсюда следует, что
Минимальная энтропия как перекрытие с максимально запутанным состоянием
Максимально запутанное состояние в двухчастичной системе определяется как
где и образуют ортонормированный базис для пространств и соответственно. Для двудольного квантового состояния мы определяем максимальное перекрытие с максимально запутанным состоянием как
где максимум по всем операциям CPTP и является размерностью подсистемы . Это мера того, насколько коррелировано состояние . Можно показать, что . Если информация, содержащаяся в , является классической, это сводится к выражению выше для вероятности угадывания.
Доказательство операционной характеристики минимальной энтропии
Доказательство взято из статьи Кенига, Шаффнера, Реннера 2008 года. [6] Оно включает в себя аппарат полуопределенных программ . [7] Предположим, что нам дан некоторый двудольный оператор плотности . Из определения минимальной энтропии имеем
Это можно переписать как
при соблюдении условий
Мы замечаем, что инфимум берется по компактным множествам и, следовательно, может быть заменен минимумом. Это может быть кратко выражено как полуопределенная программа. Рассмотрим основную задачу
Эта основная задача также может быть полностью определена матрицами , где является сопряженным к частичному следу над . Действие на операторы на можно записать как
Мы можем выразить двойственную задачу как максимизацию по операторам в пространстве следующим образом:
где состояние колокола определено над пространством . Это означает, что мы можем выразить целевую функцию двойственной задачи как
по желанию.
Обратите внимание, что в случае, если система находится в частично классическом состоянии, как указано выше, то искомая нами величина уменьшается до
Мы можем интерпретировать это как стратегию угадывания, и тогда это сводится к интерпретации, приведенной выше, где злоумышленник хочет найти строку, получив доступ к квантовой информации через систему .
^ Вазирани, Умеш; Видик, Томас (29 сентября 2014 г.). «Полностью независимое от устройств квантовое распределение ключей». Physical Review Letters . 113 (14): 140501. arXiv : 1210.1810 . Bibcode : 2014PhRvL.113n0501V. doi : 10.1103/physrevlett.113.140501. ISSN 0031-9007. PMID 25325625. S2CID 119299119.
^ Кёниг, Роберт; Реннер, Ренато ; Шаффнер, Кристиан (2009). «Операционное значение минимальной и максимальной энтропии». Труды IEEE по теории информации . 55 (9). Институт инженеров по электротехнике и электронике (IEEE): 4337– 4347. arXiv : 0807.1338 . doi : 10.1109/tit.2009.2025545. ISSN 0018-9448. S2CID 17160454.
^ Томамичел, Марко; Колбек, Роджер; Реннер, Ренато (2009). «Полностью квантовое асимптотическое свойство равнораспределения». Труды IEEE по теории информации . 55 (12). Институт инженеров по электротехнике и электронике (IEEE): 5840– 5847. arXiv : 0811.1221 . doi : 10.1109/tit.2009.2032797. ISSN 0018-9448. S2CID 12062282.
^ Кёниг, Роберт; Реннер, Ренато ; Шаффнер, Кристиан (2009). «Операционное значение минимальной и максимальной энтропии». Труды IEEE по теории информации . 55 (9). Институт инженеров по электротехнике и электронике (IEEE): 4337– 4347. arXiv : 0807.1338 . doi : 10.1109/tit.2009.2025545. ISSN 0018-9448. S2CID 17160454.
^ Кёниг, Роберт; Реннер, Ренато ; Шаффнер, Кристиан (2009). «Операционное значение минимальной и максимальной энтропии». Труды IEEE по теории информации . 55 (9). Институт инженеров по электротехнике и электронике (IEEE): 4337– 4347. arXiv : 0807.1338 . doi : 10.1109/tit.2009.2025545. ISSN 0018-9448. S2CID 17160454.
^ Джон Уотрус, Теория квантовой информации, осень 2011 г., заметки курса, https://cs.uwaterloo.ca/~watrous/CS766/LectureNotes/07.pdf