В теории вероятностей и теоретической информатике неравенство Мак-Диармида (названное в честь Колина Мак-Диармида [1] ) представляет собой неравенство концентрации , которое ограничивает отклонение между выборочным значением и ожидаемым значением определенных функций, когда они оцениваются на независимых случайных величинах . Неравенство Мак-Диармида применяется к функциям, которые удовлетворяют свойству ограниченной разности , что означает, что замена одного аргумента функции, оставляя все остальные аргументы неизменными, не может вызвать слишком большого изменения значения функции.
Заявление
Функция удовлетворяет свойству ограниченных разностей , если подстановка значения th-й координаты изменяет значение не более чем на . Более формально, если существуют константы такие, что для всех , и всех ,
Рассмотрим независимые случайные величины, где для всех . Тогда для любого ,
и как непосредственное следствие,
Расширения
Несбалансированное распределение
Более сильная граница может быть задана, когда аргументы функции выбираются из несбалансированных распределений, так что повторная выборка одного аргумента редко приводит к значительному изменению значения функции.
Рассмотрим независимые случайные величины, взятые из распределения, где есть определенное значение , которое встречается с вероятностью . Тогда для любого ,
Это можно использовать, например, для характеристики значения функции на графах при оценке на разреженных случайных графах и гиперграфах , поскольку в разреженном случайном графе гораздо более вероятно, что какое-либо конкретное ребро будет отсутствовать, чем присутствовать.
Различия ограничены с высокой вероятностью
Неравенство Мак-Диармида можно распространить на случай, когда анализируемая функция не удовлетворяет строго свойству ограниченных разностей, но большие разности остаются очень редкими.
Неравенство Мак-Диармида (разницы, ограниченные с высокой вероятностью) [5] — Пусть будет функцией, а будет подмножеством ее области определения, и пусть будут константами такими, что для всех пар и ,
Рассмотрим независимые случайные величины, где для всех . Пусть и пусть . Тогда для любого ,
и как непосредственное следствие,
Существуют более существенные уточнения этого анализа в некоторых сценариях, зависящих от распределения [6], например, те, которые возникают в теории обучения .
Субгауссовские и субэкспоненциальные нормы
Пусть центрированная условная версия функции будет
так что это случайная величина, зависящая от случайных значений .
Неравенство Мак-Диармида (субгауссовская норма) [7] [8] — Пусть будет функцией. Рассмотрим независимые случайные величины , где для всех .
Пусть относится к й центрированной условной версии . Пусть обозначает субгауссовскую норму случайной величины.
Тогда для любого ,
Неравенство Мак-Диармида (субэкспоненциальная норма) [8] — Пусть — функция. Рассмотрим независимые случайные величины , где для всех .
Пусть относится к й центрированной условной версии . Пусть обозначает субэкспоненциальную норму случайной величины.
Тогда для любого ,
Формы Беннета и Бернстайна
Уточнения неравенства Мак-Диармида в стиле неравенства Беннета и неравенства Бернштейна стали возможны благодаря определению члена дисперсии для каждого аргумента функции. Пусть
Неравенство Мак-Диармида (форма Беннета) [4] — Пусть удовлетворяет свойству ограниченных разностей с границами . Рассмотрим независимые случайные величины , где для всех . Пусть и определены как в начале этого раздела.
Тогда для любого ,
Неравенство Мак-Диармида (форма Бернштейна) [4] — Пусть удовлетворяет свойству ограниченных разностей с границами . Пусть и определены как в начале этого раздела.
Тогда для любого ,
Доказательство
Следующее доказательство неравенства Мак-Диармида [2] строит мартингал Дуба, отслеживающий условное ожидаемое значение функции по мере того, как все больше и больше ее аргументов отбираются и обуславливаются, а затем применяет неравенство концентрации мартингала ( неравенство Азумы ). Существует также альтернативный аргумент, избегающий использования мартингалов, использующий преимущество независимости аргументов функции для предоставления аргумента, подобного границе Чернова . [4]
Для лучшей читаемости введем сокращенную запись: будем обозначать для любых и целых чисел , так что, например,
^ McDiarmid, Colin (1989). «О методе ограниченных разностей». Surveys in Combinatorics, 1989: Invited Papers at the Twelfth British Combinatorics Conference : 148–188. doi :10.1017/CBO9781107359949.008. ISBN978-0-521-37823-9.
^ ab Doob, JL (1940). "Свойства регулярности некоторых семейств случайных величин" (PDF) . Transactions of the American Mathematical Society . 47 (3): 455–486. doi : 10.2307/1989964 . JSTOR 1989964.
^ Chou, Chi-Ning; Love, Peter J.; Sandhu, Juspreet Singh; Shi, Jonathan (2022). «Ограничения локальных квантовых алгоритмов на Random Max-k-XOR и далее». 49-й Международный коллоквиум по автоматам, языкам и программированию (ICALP 2022) . 229 : 41:13. arXiv : 2108.06049 . doi : 10.4230/LIPIcs.ICALP.2022.41 . Получено 8 июля 2022 г.
^ abcd Ying, Yiming (2004). "Неравенства Мак-Диармида форм Бернштейна и Беннета" (PDF) . Городской университет Гонконга . Получено 10 июля 2022 г. .
^ Wu, Xinxing; Zhang, Junping (апрель 2018 г.). «Неравенства концентрации, зависящие от распределения, для более узких границ обобщения». Science China Information Sciences . 61 (4): 048105:1–048105:3. arXiv : 1607.05506 . doi :10.1007/s11432-017-9225-2. S2CID 255199895 . Получено 10 июля 2022 г. .
^ Конторович, Арье (22 июня 2014 г.). «Концентрация в неограниченных метрических пространствах и алгоритмическая устойчивость». Труды 31-й Международной конференции по машинному обучению . 32 (2): 28–36. arXiv : 1309.1007 . Получено 10 июля 2022 г. .
^ ab Maurer, Andreas; Pontil, Pontil (2021). «Неравенства концентрации при субгауссовых и субэкспоненциальных условиях» (PDF) . Advances in Neural Information Processing Systems . 34 : 7588–7597 . Получено 10 июля 2022 г. .