В статистической классификации байесовский коэффициент ошибок — это наименьший возможный коэффициент ошибок для любого классификатора случайного результата (например, в одну из двух категорий) и аналогичен неустранимой ошибке. [1] [2]
Существует ряд подходов к оценке коэффициента байесовской ошибки. Один метод стремится получить аналитические границы, которые по своей сути зависят от параметров распределения, и, следовательно, их трудно оценить. Другой подход фокусируется на плотности классов, в то время как еще один метод объединяет и сравнивает различные классификаторы. [2]
Коэффициент ошибок Байеса находит важное применение в изучении закономерностей и методов машинного обучения . [3]
С точки зрения машинного обучения и классификации шаблонов метки набора случайных наблюдений можно разделить на 2 или более классов. Каждое наблюдение называется экземпляром , а класс, к которому оно принадлежит, — меткой . Коэффициент байесовской ошибки распределения данных — это вероятность того, что экземпляр будет неправильно классифицирован классификатором, который знает истинные вероятности классов с учетом предикторов.
Для многоклассового классификатора ожидаемая ошибка прогнозирования может быть рассчитана следующим образом: [3]
где x — экземпляр, математическое ожидание, C k — класс, в который классифицируется экземпляр, P(C k |x) — условная вероятность метки k для экземпляра x , а L() — функция потерь 0–1:
где находится дельта Кронекера .
Когда учащийся знает условную вероятность, то одним из решений является:
Это решение известно как классификатор Байеса.
Соответствующая ожидаемая ошибка прогнозирования называется коэффициентом байесовской ошибки:
где сумма может быть опущена на последнем шаге из-за учета встречного события. По определению байесовского классификатора, он максимизирует и, следовательно, минимизирует байесовскую ошибку BE.
Ошибка Байеса не равна нулю, если метки классификации не являются детерминированными, т. е. существует ненулевая вероятность принадлежности данного экземпляра более чем к одному классу. [4] В контексте регрессии с квадратичной ошибкой ошибка Байеса равна дисперсии шума. [3]
Доказательство того, что коэффициент ошибок Байеса действительно является минимально возможным и что классификатор Байеса, следовательно, является оптимальным, можно найти на странице Википедии Классификатор Байеса .
Правило плагина использует оценку апостериорной вероятности для формирования правила классификации. При наличии оценки избыточная байесовская частота ошибок соответствующего классификатора ограничена сверху:
Чтобы увидеть это, обратите внимание, что избыточная ошибка Байеса равна 0, где классификаторы согласны, и равна, где они не согласны. Чтобы сформировать границу, обратите внимание, что она по крайней мере так же далека, когда классификаторы не согласны.