Неравенство концентраций - Concentration inequality

В теория вероятности, неравенство концентраций установить границы того, как случайная переменная отклоняется от некоторого значения (обычно ожидаемое значение ). В закон больших чисел классической теории вероятностей утверждает, что суммы независимых случайных величин при очень мягких условиях с большой вероятностью близки к их математическому ожиданию. Такие суммы являются наиболее простыми примерами случайных величин, сосредоточенных вокруг их иметь в виду. Недавние результаты показывают, что такое поведение характерно и для других функций независимых случайных величин.

Неравенства концентраций могут быть отсортированы по тому, сколько информации о случайной величине необходимо для их использования.

Неравенство Маркова

Позволять быть неотрицательной случайной величиной (почти наверняка ). Тогда для каждой постоянной ,

Обратите внимание на следующее расширение неравенства Маркова: если - строго возрастающая неотрицательная функция, то

Неравенство Чебышева

Неравенство Чебышева требует следующей информации о случайной величине :

  • Ожидаемое значение конечно.
  • В отклонение конечно.

Тогда для каждой постоянной ,

или эквивалентно,

куда это стандартное отклонение из .

Неравенство Чебышева можно рассматривать как частный случай обобщенного неравенства Маркова, примененного к случайной величине с .


Неравенство Высочанского – Петунина.


Неравенство Пэли – Зигмунда.


Неравенство Кантелли


Неравенство Гаусса


Границы Чернова

Общая граница Чернова[1]:63–65 требует только функция, производящая момент из , определяется как: при условии, что он существует. Исходя из неравенства Маркова, для каждого :

и для каждого :

Существуют разные границы Чернова для разных распределений и разных значений параметра . Видеть [2]:5–7 для компиляции большего количества неравенств концентрации.

Оценки сумм независимых переменных

Позволять - независимые случайные величины такие, что для всех я:

почти наверняка.

Позволять быть их суммой, это ожидаемое значение и его дисперсия:

Часто бывает интересно определить разницу между суммой и ее ожидаемым значением. Можно использовать несколько неравенств.

1. Неравенство Хёффдинга Говорит, что:

2. Случайная величина частный случай мартингейл, и . Следовательно, общий вид Неравенство Адзумы также можно использовать, и это дает аналогичную оценку:

Это обобщение модели Хёффдинга, поскольку она может обрабатывать другие типы мартингалов, а также супермартингейлы и субмартингалы. Обратите внимание, что если используется более простая форма неравенства Адзумы, показатель степени в оценке будет хуже в 4 раза.

3. Функция суммы, , является частным случаем функции п переменные. Эта функция изменяется ограниченным образом: если переменная я изменяется, значение ж изменяется не более чем на . Следовательно, Неравенство МакДиармида также можно использовать, и это дает аналогичную оценку:

Это другое обобщение Хёффдинга, поскольку оно может обрабатывать другие функции, помимо функции суммы, если они изменяются ограниченным образом.

4. Неравенство Беннета предлагает некоторое улучшение по сравнению с Хёффдингом, когда дисперсии слагаемых малы по сравнению с их почти верными границами C. В нем говорится, что:

куда

5. Первый из Неравенства Бернштейна Говорит, что:

Это обобщение теории Хёффдинга, поскольку она может обрабатывать случайные величины не только с почти надежной оценкой, но и с почти верной границей и границей дисперсии.

6. Границы Чернова имеют особенно простой вид в случае суммы независимых переменных, поскольку .

Например,[3] предположим, что переменные удовлетворить , за . Тогда у нас есть неравенство нижнего хвоста:

Если удовлетворяет , имеем неравенство верхнего хвоста:

Если i.i.d., и это дисперсия , типичный вариант неравенства Чернова:

7. Подобные оценки можно найти в: Распределение Радемахера # Границы сумм

Неравенство Эфрона – Стейна.

Неравенство Эфрона – Стейна (или неравенство влияния, или оценка MG на дисперсию) ограничивает дисперсию общей функции.

Предположим, что , независимы с и одинаковое распределение для всех .

Позволять потом

Неравенство Дворецкого – Кифера – Вулфовица.

Неравенство Дворецкого – Кифера – Вулфовица ограничивает разницу между действительным и эмпирическим кумулятивная функция распределения.

Учитывая натуральное число , позволять иметь реальную ценность независимые и одинаково распределенные случайные переменные с кумулятивная функция распределения F(·). Позволять обозначим связанный эмпирическая функция распределения определяется

Так вероятность того, что Один случайная переменная меньше чем , и это среднее число случайных величин, меньших, чем .

потом

Антиконцентрационное неравенство

Антиконцентрационное неравенство, с другой стороны, верхняя граница на том, насколько случайная величина может концентрироваться вокруг количества.

Например, Рао и Иегудаофф[4] показать, что есть некоторые так что для большинства направлений гиперкуба , верно следующее:

куда равномерно вытягивается из подмножества достаточно большого размера.

Такое неравенство важно в нескольких областях, в том числе сложность коммуникации (например, в доказательствах проблема разрыва Хэмминга[5]) и теория графов.[6]

Интересное неравенство антиконцентрации для взвешенных сумм независимых Радемахер случайные величины могут быть получены с помощью Пейли-Зигмунд и Хинчин неравенства.[7]

Рекомендации

  1. ^ Митценмахер, Майкл; Упфал, Эли (2005). Вероятность и вычисления: рандомизированные алгоритмы и вероятностный анализ. Издательство Кембриджского университета. ISBN  0-521-83540-2.
  2. ^ Слэгл, Н. (2012). «Сто статистик и вероятностных неравенств» (PDF).
  3. ^ Чанг, Фань; Лу, Линьюань (2010). «Старое и новое неравенство концентрации» (PDF). Сложные графы и сети. Американское математическое общество. Получено 14 августа, 2018.
  4. ^ Рао, Ануп; Иегудаофф, Амир (2018). «Антиконцентрация по большинству направлений». Электронный коллоквиум по вычислительной сложности.
  5. ^ Шерстов, Александр А. (2012). «Коммуникационная сложность расстояния Хэмминга». Теория вычислений.
  6. ^ Мэтью Кван; Бенни Судаков; Туан Тран (2018). «Антиконцентрация для статистики подграфов». Журнал Лондонского математического общества. 99 (3): 757–777. arXiv:1807.05202. Bibcode:2018arXiv180705202K. Дои:10.1112 / jlms.12192. S2CID  54065186.
  7. ^ Вераар, Марк (2009). «О неравенствах Хинчина с весом». arXiv:0909.2586v1 [math.PR ].

внешняя ссылка

Картик Шридхаран "Мягкое введение в неравенство концентрации "  —Корнелл Университет