Мин-энтропия

Мера непредсказуемости результатов

Мин -энтропия в теории информации — наименьшая из семейства энтропий Реньи , соответствующая наиболее консервативному способу измерения непредсказуемости набора результатов, как отрицательному логарифму вероятности наиболее вероятного результата. Различные энтропии Реньи все равны для равномерного распределения, но измеряют непредсказуемость неравномерного распределения по-разному. Мин-энтропия никогда не превышает обычную или энтропию Шеннона (которая измеряет среднюю непредсказуемость результатов), а та, в свою очередь, никогда не превышает энтропию Хартли или макс-энтропию , определяемую как логарифм числа результатов с ненулевой вероятностью.

Как и в случае с классической энтропией Шеннона и ее квантовым обобщением, энтропией фон Неймана , можно определить условную версию min-энтропии. Условная квантовая min-энтропия является одноразовым, или консервативным, аналогом условной квантовой энтропии .

Для интерпретации условной информационной меры предположим, что Алиса и Боб разделяют двухчастичное квантовое состояние . Алиса имеет доступ к системе , а Боб — к системе . Условная энтропия измеряет среднюю неопределенность, которую Боб имеет относительно состояния Алисы при выборке из своей собственной системы. Минимальную энтропию можно интерпретировать как расстояние состояния от максимально запутанного состояния. ρ А Б {\displaystyle \rho _{AB}} А {\displaystyle А} Б {\displaystyle Б}

Эта концепция полезна в квантовой криптографии в контексте усиления конфиденциальности (см., например, [1] ).

Определение классических распределений

Если — классическое конечное распределение вероятностей, его минимальная энтропия может быть определена как [2] Один из способов оправдать название величины — сравнить ее с более стандартным определением энтропии, которое читается как , и, таким образом, может быть записано кратко как математическое ожидание по распределению. Если вместо математического ожидания этой величины мы возьмем ее минимальное значение, мы получим в точности приведенное выше определение . П = ( п 1 , . . . , п н ) {\displaystyle P=(p_{1},...,p_{n})} ЧАС м я н ( П ) = бревно 1 П м а х , П м а х макс я п я . {\displaystyle H_{\rm {min}}({\boldsymbol {P}})=\log {\frac {1}{P_{\rm {max}}}},\qquad P_{\rm {max}}\equiv \max _{i}p_{i}.} ЧАС ( П ) = я п я бревно ( 1 / п я ) {\displaystyle H({\boldsymbol {P}})=\sum _{i}p_{i}\log(1/p_{i})} бревно ( 1 / п я ) {\displaystyle \log(1/p_{i})} ЧАС м я н ( П ) {\displaystyle H_{\rm {min}}({\boldsymbol {P}})}

С операционной точки зрения, мин-энтропия равна отрицательному логарифму вероятности успешного угадывания результата случайного розыгрыша из . Это происходит потому, что оптимально угадывать элемент с наибольшей вероятностью, а шанс успеха равен вероятности этого элемента. П {\displaystyle P}

Определение квантовых состояний

Естественным способом обобщения «min-entropy» с классических на квантовые состояния является использование простого наблюдения, что квантовые состояния определяют классические распределения вероятностей при измерении в некотором базисе. Однако есть дополнительная сложность, заключающаяся в том, что одно квантовое состояние может привести к бесконечному числу возможных распределений вероятностей, в зависимости от того, как оно измеряется. Тогда естественным путем, учитывая квантовое состояние , по-прежнему определять как , но на этот раз определять как максимально возможную вероятность, которая может быть получена при измерении , максимизируя по всем возможным проективным измерениям. Используя это, можно получить рабочее определение, что min-entropy равна отрицательному логарифму вероятности успешного угадывания результата любого измерения . ρ {\displaystyle \ро} ЧАС м я н ( ρ ) {\displaystyle H_{\rm {min}}(\rho )} бревно ( 1 / П м а х ) {\displaystyle \log(1/P_{\rm {макс}})} П м а х {\displaystyle P_{\rm {макс}}} ρ {\displaystyle \ро} ρ {\displaystyle \ро} ρ {\displaystyle \ро}

Формально это приводит к определению, в котором мы максимизируем по набору всех проективных измерений , представляем результаты измерений в формализме POVM и, следовательно, являемся вероятностью наблюдения -го результата, когда измерение равно . ЧАС м я н ( ρ ) = макс П бревно 1 макс я тр ( П я ρ ) = макс П бревно макс я тр ( П я ρ ) , {\displaystyle H_{\rm {min}}(\rho )=\max _{\Pi }\log {\frac {1}{\max _{i}\operatorname {tr} (\Pi _{i}\rho )}}=-\max _{\Pi }\log \max _{i}\operatorname {tr} (\Pi _{i}\rho ),} П = ( П я ) я {\displaystyle \Pi =(\Pi _{i})_{i}} П я {\displaystyle \Пи _{я}} тр ( П я ρ ) {\displaystyle \operatorname {tr} (\Pi _{i}\rho )} я {\displaystyle я} П {\displaystyle \Пи}

Более краткий метод записи двойной максимизации состоит в том, чтобы заметить, что любой элемент любого POVM является эрмитовым оператором, таким что , и, таким образом, мы можем эквивалентно напрямую максимизировать по ним, чтобы получить Фактически, эта максимизация может быть выполнена явно, и максимум получается, когда является проекцией на (любое из) наибольшее собственное значение(я) . Таким образом, мы получаем еще одно выражение для минимальной энтропии как: помня, что операторная норма эрмитова положительно полуопределенного оператора равна его наибольшему собственному значению. 0 П я {\displaystyle 0\leq \Пи \leq I} ЧАС м я н ( ρ ) = макс 0 П я бревно тр ( П ρ ) . {\displaystyle H_{\rm {min}}(\rho )=-\max _{0\leq \Pi \leq I}\log \operatorname {tr} (\Pi \rho ).} П {\displaystyle \Пи} ρ {\displaystyle \ро} ЧАС м я н ( ρ ) = бревно ρ о п , {\displaystyle H_{\rm {min}}(\rho )=-\log \|\rho \|_{\rm {op}},}

Условные энтропии

Пусть — двудольный оператор плотности на пространстве . Минимальная энтропия обусловленного определяется как ρ А Б {\displaystyle \rho _{AB}} ЧАС А ЧАС Б {\displaystyle {\mathcal {H}}_{A}\otimes {\mathcal {H}}_{B}} А {\displaystyle А} Б {\displaystyle Б}

ЧАС мин ( А | Б ) ρ инф σ Б Д макс ( ρ А Б я А σ Б ) {\displaystyle H_{\min}(A|B)_{\rho}\equiv -\inf _{\sigma _{B}}D_{\max}(\rho _{AB}\|I_{A}\otimes \sigma _{B})}

где инфимум пробегает все операторы плотности в пространстве . Мера — это максимальная относительная энтропия, определяемая как σ Б {\displaystyle \сигма _{B}} ЧАС Б {\displaystyle {\mathcal {H}}_{B}} Д макс {\displaystyle D_{\макс }}

Д макс ( ρ σ ) = инф λ { λ : ρ 2 λ σ } {\displaystyle D_{\max}(\rho \|\sigma )=\inf _{\lambda }\{\lambda :\rho \leq 2^{\lambda }\sigma \}}

Гладкая минимальная энтропия определяется через минимальную энтропию.

ЧАС мин ϵ ( А | Б ) ρ = Как дела ρ ЧАС мин ( А | Б ) ρ {\displaystyle H_{\min }^{\epsilon }(A|B)_{\rho }=\sup _{\rho '}H_{\min }(A|B)_{\rho '}}

где sup и inf пробегают операторы плотности, которые -близки к . Эта мера -близости определяется в терминах очищенного расстояния ρ A B {\displaystyle \rho '_{AB}} ϵ {\displaystyle \epsilon } ρ A B {\displaystyle \rho _{AB}} ϵ {\displaystyle \epsilon }

P ( ρ , σ ) = 1 F ( ρ , σ ) 2 {\displaystyle P(\rho ,\sigma )={\sqrt {1-F(\rho ,\sigma )^{2}}}}

где мера верности . F ( ρ , σ ) {\displaystyle F(\rho ,\sigma )}

Эти величины можно рассматривать как обобщения энтропии фон Неймана . Действительно, энтропия фон Неймана может быть выражена как

S ( A | B ) ρ = lim ϵ 0 lim n 1 n H min ϵ ( A n | B n ) ρ n   . {\displaystyle S(A|B)_{\rho }=\lim _{\epsilon \rightarrow 0}\lim _{n\rightarrow \infty }{\frac {1}{n}}H_{\min }^{\epsilon }(A^{n}|B^{n})_{\rho ^{\otimes n}}~.}

Это называется полностью квантовой асимптотической теоремой о равнораспределении. [3] Сглаженные энтропии разделяют много интересных свойств с энтропией фон Неймана. Например, гладкая минимальная энтропия удовлетворяет неравенству обработки данных: [4]

H min ϵ ( A | B ) ρ H min ϵ ( A | B C ) ρ   . {\displaystyle H_{\min }^{\epsilon }(A|B)_{\rho }\geq H_{\min }^{\epsilon }(A|BC)_{\rho }~.}

Операционная интерпретация сглаженной минимальной энтропии

В дальнейшем мы будем опускать нижний индекс у min-энтропии, когда из контекста очевидно, в каком состоянии она оценивается. ρ {\displaystyle \rho }

Минимальная энтропия как неопределенность классической информации

Предположим, что агент имеет доступ к квантовой системе , состояние которой зависит от некоторой классической переменной . Кроме того, предположим, что каждый из ее элементов распределен в соответствии с некоторым распределением . Это можно описать следующим состоянием над системой . B {\displaystyle B} ρ B x {\displaystyle \rho _{B}^{x}} X {\displaystyle X} x {\displaystyle x} P X ( x ) {\displaystyle P_{X}(x)} X B {\displaystyle XB}

ρ X B = x P X ( x ) | x x | ρ B x , {\displaystyle \rho _{XB}=\sum _{x}P_{X}(x)|x\rangle \langle x|\otimes \rho _{B}^{x},}

где образуют ортонормальный базис. Мы хотели бы узнать, что агент может узнать о классической переменной . Пусть будет вероятностью того, что агент угадает при использовании оптимальной стратегии измерения { | x } {\displaystyle \{|x\rangle \}} x {\displaystyle x} p g ( X | B ) {\displaystyle p_{g}(X|B)} X {\displaystyle X}

p g ( X | B ) = x P X ( x ) tr ( E x ρ B x ) , {\displaystyle p_{g}(X|B)=\sum _{x}P_{X}(x)\operatorname {tr} (E_{x}\rho _{B}^{x}),}

где — POVM, которая максимизирует это выражение. Можно показать [5] , что этот оптимум может быть выражен в терминах min-энтропии как E x {\displaystyle E_{x}}

p g ( X | B ) = 2 H min ( X | B )   . {\displaystyle p_{g}(X|B)=2^{-H_{\min }(X|B)}~.}

Если состояние является продуктом состояния т.е. для некоторых операторов плотности и , то корреляция между системами и отсутствует . В этом случае оказывается, что ρ X B {\displaystyle \rho _{XB}} ρ X B = σ X τ B {\displaystyle \rho _{XB}=\sigma _{X}\otimes \tau _{B}} σ X {\displaystyle \sigma _{X}} τ B {\displaystyle \tau _{B}} X {\displaystyle X} B {\displaystyle B} 2 H min ( X | B ) = max x P X ( x )   . {\displaystyle 2^{-H_{\min }(X|B)}=\max _{x}P_{X}(x)~.}

Поскольку условная минимальная энтропия всегда меньше условной энтропии фон Неймана, то отсюда следует, что

p g ( X | B ) 2 S ( A | B ) ρ   . {\displaystyle p_{g}(X|B)\geq 2^{-S(A|B)_{\rho }}~.}

Минимальная энтропия как перекрытие с максимально запутанным состоянием

Максимально запутанное состояние в двухчастичной системе определяется как | ϕ + {\displaystyle |\phi ^{+}\rangle } H A H B {\displaystyle {\mathcal {H}}_{A}\otimes {\mathcal {H}}_{B}}

| ϕ + A B = 1 d x A , x B | x A | x B {\displaystyle |\phi ^{+}\rangle _{AB}={\frac {1}{\sqrt {d}}}\sum _{x_{A},x_{B}}|x_{A}\rangle |x_{B}\rangle }

где и образуют ортонормированный базис для пространств и соответственно. Для двудольного квантового состояния мы определяем максимальное перекрытие с максимально запутанным состоянием как { | x A } {\displaystyle \{|x_{A}\rangle \}} { | x B } {\displaystyle \{|x_{B}\rangle \}} A {\displaystyle A} B {\displaystyle B} ρ A B {\displaystyle \rho _{AB}}

q c ( A | B ) = d A max E F ( ( I A E ) ρ A B , | ϕ + ϕ + | ) 2 {\displaystyle q_{c}(A|B)=d_{A}\max _{\mathcal {E}}F\left((I_{A}\otimes {\mathcal {E}})\rho _{AB},|\phi ^{+}\rangle \langle \phi ^{+}|\right)^{2}}

где максимум по всем операциям CPTP и является размерностью подсистемы . Это мера того, насколько коррелировано состояние . Можно показать, что . Если информация, содержащаяся в , является классической, это сводится к выражению выше для вероятности угадывания. E {\displaystyle {\mathcal {E}}} d A {\displaystyle d_{A}} A {\displaystyle A} ρ A B {\displaystyle \rho _{AB}} q c ( A | B ) = 2 H min ( A | B ) {\displaystyle q_{c}(A|B)=2^{-H_{\min }(A|B)}} A {\displaystyle A}

Доказательство операционной характеристики минимальной энтропии

Доказательство взято из статьи Кенига, Шаффнера, Реннера 2008 года. [6] Оно включает в себя аппарат полуопределенных программ . [7] Предположим, что нам дан некоторый двудольный оператор плотности . Из определения минимальной энтропии имеем ρ A B {\displaystyle \rho _{AB}}

H min ( A | B ) = inf σ B inf λ { λ | ρ A B 2 λ ( I A σ B ) }   . {\displaystyle H_{\min }(A|B)=-\inf _{\sigma _{B}}\inf _{\lambda }\{\lambda |\rho _{AB}\leq 2^{\lambda }(I_{A}\otimes \sigma _{B})\}~.}

Это можно переписать как

log inf σ B Tr ( σ B ) {\displaystyle -\log \inf _{\sigma _{B}}\operatorname {Tr} (\sigma _{B})}

при соблюдении условий

σ B 0 {\displaystyle \sigma _{B}\geq 0}
I A σ B ρ A B   . {\displaystyle I_{A}\otimes \sigma _{B}\geq \rho _{AB}~.}

Мы замечаем, что инфимум берется по компактным множествам и, следовательно, может быть заменен минимумом. Это может быть кратко выражено как полуопределенная программа. Рассмотрим основную задачу

min: Tr ( σ B ) {\displaystyle {\text{min:}}\operatorname {Tr} (\sigma _{B})}
subject to:  I A σ B ρ A B {\displaystyle {\text{subject to: }}I_{A}\otimes \sigma _{B}\geq \rho _{AB}}
σ B 0   . {\displaystyle \sigma _{B}\geq 0~.}

Эта основная задача также может быть полностью определена матрицами , где является сопряженным к частичному следу над . Действие на операторы на можно записать как ( ρ A B , I B , Tr ) {\displaystyle (\rho _{AB},I_{B},\operatorname {Tr} ^{*})} Tr {\displaystyle \operatorname {Tr} ^{*}} A {\displaystyle A} Tr {\displaystyle \operatorname {Tr} ^{*}} B {\displaystyle B}

Tr ( X ) = I A X   . {\displaystyle \operatorname {Tr} ^{*}(X)=I_{A}\otimes X~.}

Мы можем выразить двойственную задачу как максимизацию по операторам в пространстве следующим образом: E A B {\displaystyle E_{AB}} A B {\displaystyle AB}

max: Tr ( ρ A B E A B ) {\displaystyle {\text{max:}}\operatorname {Tr} (\rho _{AB}E_{AB})}
subject to:  Tr A ( E A B ) = I B {\displaystyle {\text{subject to: }}\operatorname {Tr} _{A}(E_{AB})=I_{B}}
E A B 0   . {\displaystyle E_{AB}\geq 0~.}

Используя изоморфизм Чоя–Ямилковского , мы можем определить канал таким образом, что E {\displaystyle {\mathcal {E}}}

d A I A E ( | ϕ + ϕ + | ) = E A B {\displaystyle d_{A}I_{A}\otimes {\mathcal {E}}^{\dagger }(|\phi ^{+}\rangle \langle \phi ^{+}|)=E_{AB}}

где состояние колокола определено над пространством . Это означает, что мы можем выразить целевую функцию двойственной задачи как A A {\displaystyle AA'}

ρ A B , E A B = d A ρ A B , I A E ( | ϕ + ϕ + | ) {\displaystyle \langle \rho _{AB},E_{AB}\rangle =d_{A}\langle \rho _{AB},I_{A}\otimes {\mathcal {E}}^{\dagger }(|\phi ^{+}\rangle \langle \phi ^{+}|)\rangle }
= d A I A E ( ρ A B ) , | ϕ + ϕ + | ) {\displaystyle =d_{A}\langle I_{A}\otimes {\mathcal {E}}(\rho _{AB}),|\phi ^{+}\rangle \langle \phi ^{+}|)\rangle }

по желанию.

Обратите внимание, что в случае, если система находится в частично классическом состоянии, как указано выше, то искомая нами величина уменьшается до A {\displaystyle A}

max P X ( x ) x | E ( ρ B x ) | x   . {\displaystyle \max P_{X}(x)\langle x|{\mathcal {E}}(\rho _{B}^{x})|x\rangle ~.}

Мы можем интерпретировать это как стратегию угадывания, и тогда это сводится к интерпретации, приведенной выше, где злоумышленник хочет найти строку, получив доступ к квантовой информации через систему . E {\displaystyle {\mathcal {E}}} x {\displaystyle x} B {\displaystyle B}

Смотрите также

Ссылки

  1. ^ Вазирани, Умеш; Видик, Томас (29 сентября 2014 г.). «Полностью независимое от устройств квантовое распределение ключей». Physical Review Letters . 113 (14): 140501. arXiv : 1210.1810 . Bibcode : 2014PhRvL.113n0501V. doi : 10.1103/physrevlett.113.140501. ISSN  0031-9007. PMID  25325625. S2CID  119299119.
  2. ^ Кёниг, Роберт; Реннер, Ренато ; Шаффнер, Кристиан (2009). «Операционное значение минимальной и максимальной энтропии». Труды IEEE по теории информации . 55 (9). Институт инженеров по электротехнике и электронике (IEEE): 4337– 4347. arXiv : 0807.1338 . doi : 10.1109/tit.2009.2025545. ISSN  0018-9448. S2CID  17160454.
  3. ^ Томамичел, Марко; Колбек, Роджер; Реннер, Ренато (2009). «Полностью квантовое асимптотическое свойство равнораспределения». Труды IEEE по теории информации . 55 (12). Институт инженеров по электротехнике и электронике (IEEE): 5840– 5847. arXiv : 0811.1221 . doi : 10.1109/tit.2009.2032797. ISSN  0018-9448. S2CID  12062282.
  4. ^ Ренато Реннер, «Безопасность квантового распределения ключей», докторская диссертация, дисс. ETH № 16242 arXiv :quant-ph/0512258
  5. ^ Кёниг, Роберт; Реннер, Ренато ; Шаффнер, Кристиан (2009). «Операционное значение минимальной и максимальной энтропии». Труды IEEE по теории информации . 55 (9). Институт инженеров по электротехнике и электронике (IEEE): 4337– 4347. arXiv : 0807.1338 . doi : 10.1109/tit.2009.2025545. ISSN  0018-9448. S2CID  17160454.
  6. ^ Кёниг, Роберт; Реннер, Ренато ; Шаффнер, Кристиан (2009). «Операционное значение минимальной и максимальной энтропии». Труды IEEE по теории информации . 55 (9). Институт инженеров по электротехнике и электронике (IEEE): 4337– 4347. arXiv : 0807.1338 . doi : 10.1109/tit.2009.2025545. ISSN  0018-9448. S2CID  17160454.
  7. ^ Джон Уотрус, Теория квантовой информации, осень 2011 г., заметки курса, https://cs.uwaterloo.ca/~watrous/CS766/LectureNotes/07.pdf
Retrieved from "https://en.wikipedia.org/w/index.php?title=Min-entropy&oldid=1270620037"