Коэффициент Фи

Статистическая мера ассоциации для двух бинарных переменных

В статистике коэффициент фи (или среднеквадратичный коэффициент сопряженности , обозначается как φ или r φ ) является мерой связи для двух двоичных переменных .

В машинном обучении он известен как коэффициент корреляции Мэтьюза (MCC) и используется как мера качества бинарных (двухклассовых) классификаций , введенных биохимиком Брайаном У. Мэтьюзом в 1975 году. [1]

Введенный Карлом Пирсоном [ 2] и также известный как коэффициент Юла-фи после его введения Удни Юлом в 1912 году [3], этот показатель по своей интерпретации аналогичен коэффициенту корреляции Пирсона .

Определение

Коэффициент корреляции Пирсона , рассчитанный для двух двоичных переменных, вернет коэффициент фи. [4]

Две бинарные переменные считаются положительно связанными, если большая часть данных попадает на диагональные ячейки. Напротив, две бинарные переменные считаются отрицательно связанными, если большая часть данных попадает за пределы диагонали.

Если у нас есть таблица 2×2 для двух случайных величин x и  y

у = 1у = 0общий
х = 1 н 11 {\displaystyle n_{11}} n 10 {\displaystyle n_{10}} n 1 {\displaystyle n_{1\bullet }}
х = 0 n 01 {\displaystyle n_{01}} n 00 {\displaystyle n_{00}} n 0 {\displaystyle n_{0\bullet }}
общий n 1 {\displaystyle n_{\bullet 1}} n 0 {\displaystyle n_{\bullet 0}} n {\displaystyle n}

где n 11 , n 10 , n 01 , n 00 , являются неотрицательными числами количества наблюдений, которые в сумме дают  n , общее количество наблюдений. Коэффициент фи, описывающий связь x и y, равен

ϕ = n 11 n 00 n 10 n 01 n 1 n 0 n 0 n 1 . {\displaystyle \phi ={\frac {n_{11}n_{00}-n_{10}n_{01}}{\sqrt {n_{1\bullet }n_{0\bullet }n_{\bullet 0}n_{\bullet 1}}}}.}

Фи связан с точечно-бисериальным коэффициентом корреляции и d Коэна и оценивает степень взаимосвязи между двумя переменными (2×2). [5]

Коэффициент фи также можно выразить, используя только , , , и , как n {\displaystyle n} n 11 {\displaystyle n_{11}} n 1 {\displaystyle n_{1\bullet }} n 1 {\displaystyle n_{\bullet 1}}

ϕ = n n 11 n 1 n 1 n 1 n 1 ( n n 1 ) ( n n 1 ) . {\displaystyle \phi ={\frac {nn_{11}-n_{1\bullet }n_{\bullet 1}}{\sqrt {n_{1\bullet }n_{\bullet 1}(n-n_{1\bullet })(n-n_{\bullet 1})}}}.}

Максимальные значения

Хотя вычислительно коэффициент корреляции Пирсона сводится к коэффициенту фи в случае 2×2, в общем случае они не одинаковы. Коэффициент корреляции Пирсона варьируется от −1 до +1, где ±1 указывает на полное согласие или несогласие, а 0 указывает на отсутствие связи. Коэффициент фи имеет максимальное значение, которое определяется распределением двух переменных, если одна или обе переменные могут принимать более двух значений. [ необходимо дополнительное объяснение ] Подробное обсуждение см. в Davenport and El-Sanhury (1991) [6] .

Машинное обучение

MCC определяется идентично коэффициенту фи, введенному Карлом Пирсоном [2] [ 7], также известному как коэффициент фи Юла, введенный Удни Юлом в 1912 году [3]. Несмотря на эти предшественники, которые появились за несколько десятилетий до использования Мэтьюзом, термин MCC широко используется в области биоинформатики и машинного обучения.

Коэффициент учитывает истинные и ложные положительные и отрицательные результаты и обычно рассматривается как сбалансированная мера, которую можно использовать, даже если классы имеют очень разные размеры. [8] MCC по сути является коэффициентом корреляции между наблюдаемыми и предсказанными бинарными классификациями; он возвращает значение от −1 до +1. Коэффициент +1 представляет собой идеальное предсказание, 0 не лучше случайного предсказания, а −1 указывает на полное несоответствие между предсказанием и наблюдением. Однако, если MCC не равен ни −1, ни 0, ни +1, это не является надежным показателем того, насколько предиктор похож на случайное угадывание, поскольку MCC зависит от набора данных. [9] MCC тесно связан со статистикой хи-квадрат для таблицы сопряженности 2×2

| MCC | = χ 2 n {\displaystyle |{\text{MCC}}|={\sqrt {\frac {\chi ^{2}}{n}}}}

где n — общее количество наблюдений.

Хотя не существует идеального способа описания матрицы путаницы истинных и ложных положительных и отрицательных результатов одним числом, коэффициент корреляции Мэтьюса обычно считается одной из лучших таких мер. [10] Другие меры, такие как доля правильных предсказаний (также называемая точностью ), бесполезны, когда два класса имеют очень разные размеры. Например, назначение каждого объекта большему набору обеспечивает высокую долю правильных предсказаний, но, как правило, не является полезной классификацией.

MCC можно рассчитать непосредственно из матрицы неточностей, используя формулу:

MCC = T P × T N F P × F N ( T P + F P ) ( T P + F N ) ( T N + F P ) ( T N + F N ) {\displaystyle {\text{MCC}}={\frac {{\mathit {TP}}\times {\mathit {TN}}-{\mathit {FP}}\times {\mathit {FN}}}{\sqrt {({\mathit {TP}}+{\mathit {FP}})({\mathit {TP}}+{\mathit {FN}})({\mathit {TN}}+{\mathit {FP}})({\mathit {TN}}+{\mathit {FN}})}}}}

В этом уравнении TP — это число истинно положительных результатов , TN — число истинно отрицательных результатов , FP — число ложно положительных результатов и FN — число ложно отрицательных результатов . Если ровно одна из четырех сумм в знаменателе равна нулю, знаменатель можно произвольно установить равным единице; это приводит к нулевому коэффициенту корреляции Мэтьюза, который, как можно показать, является правильным предельным значением. В случае, если две или более сумм равны нулю (например, обе метки и предсказания модели все положительные или отрицательные), предела не существует.

MCC можно рассчитать по формуле:

MCC = P P V × T P R × T N R × N P V F D R × F N R × F P R × F O R {\displaystyle {\text{MCC}}={\sqrt {{\mathit {PPV}}\times {\mathit {TPR}}\times {\mathit {TNR}}\times {\mathit {NPV}}}}-{\sqrt {{\mathit {FDR}}\times {\mathit {FNR}}\times {\mathit {FPR}}\times {\mathit {FOR}}}}}

с использованием положительной прогностической ценности, истинно положительной частоты, истинно отрицательной частоты, отрицательной прогностической ценности, частоты ложных открытий, ложноотрицательной частоты, ложноположительной частоты и частоты ложного пропуска.

Первоначальная формула, предложенная Мэтьюсом, была следующей: [1]

N = T N + T P + F N + F P S = T P + F N N P = T P + F P N MCC = T P / N S × P P S ( 1 S ) ( 1 P ) {\displaystyle {\begin{aligned}N&={\mathit {TN}}+{\mathit {TP}}+{\mathit {FN}}+{\mathit {FP}}\\S&={\frac {{\mathit {TP}}+{\mathit {FN}}}{N}}\\P&={\frac {{\mathit {TP}}+{\mathit {FP}}}{N}}\\{\text{MCC}}&={\frac {{\mathit {TP}}/N-S\times P}{\sqrt {PS(1-S)(1-P)}}}\end{aligned}}}

Это равно формуле, приведенной выше. Как коэффициент корреляции , коэффициент корреляции Мэтьюса является геометрическим средним коэффициентов регрессии задачи и ее дуальной . Компонентными коэффициентами регрессии коэффициента корреляции Мэтьюса являются Markedness (Δp) и статистика J Youden's ( Informedness или Δp'). [10] [11] Markedness и Informedness соответствуют различным направлениям потока информации и обобщают статистику J Youden's , статистику p, в то время как их геометрическое среднее обобщает коэффициент корреляции Мэтьюса на более чем два класса. [10] δ {\displaystyle \delta }

Некоторые ученые утверждают, что коэффициент корреляции Мэтьюза является наиболее информативным единичным показателем для определения качества предсказания бинарного классификатора в контексте матрицы путаницы. [12] [13]

Пример

Дан выбор из 12 фотографий, 8 из которых с кошками и 4 с собаками, где кошки относятся к классу 1, а собаки — к классу 0.

фактический = [1,1,1,1,1,1,1,1,0,0,0,0],

Предположим, что классификатор, который различает кошек и собак, обучен, и мы берем 12 фотографий и пропускаем их через классификатор. Классификатор делает 9 точных предсказаний и пропускает 3: 2 кошки ошибочно предсказаны как собаки (первые 2 предсказания) и 1 собака ошибочно предсказана как кошка (последнее предсказание).

прогноз = [0,0, 1 , 1 , 1 , 1 , 1 , 1 , 0 , 0 , 0 , 1 ]

С помощью этих двух маркированных наборов (фактического и прогнозируемого) мы можем создать матрицу путаницы, которая обобщит результаты тестирования классификатора:

Предсказанный
класс
Фактический класс
КотСобака
Кот62
Собака13

В этой матрице путаницы из 8 изображений кошек система определила, что 2 — это собаки, а из 4 изображений собак она предсказала, что 1 — это кошка. Все правильные прогнозы расположены по диагонали таблицы (выделены жирным шрифтом), поэтому легко визуально проверить таблицу на наличие ошибок прогнозирования, поскольку они будут представлены значениями за пределами диагонали.

В абстрактном смысле матрица путаницы выглядит следующим образом:

Предсказанный
класс
Фактический класс
ПН
ПТПФН
НФПТН

где P = Положительный; N = Отрицательный; TP = Истинно положительный; FP = Ложно положительный; TN = Истинно отрицательный; FN = Ложно отрицательный.

Подставляем числа из формулы:

MCC = 6 × 3 1 × 2 ( 6 + 1 ) × ( 6 + 2 ) × ( 3 + 1 ) × ( 3 + 2 ) = 16 1120 0.478 {\displaystyle {\text{MCC}}={\frac {6\times 3-1\times 2}{\sqrt {(6+1)\times (6+2)\times (3+1)\times (3+2)}}}={\frac {16}{\sqrt {1120}}}\approx 0.478}

Матрица путаницы

Давайте определим эксперимент из P положительных случаев и N отрицательных случаев для некоторого условия. Четыре результата можно сформулировать в виде таблицы сопряженности 2×2 или матрицы путаницы следующим образом:

Прогнозируемое состояниеИсточники: [14] [15] [16] [17] [18] [19] [20] [21]
Общая численность населения
= P + N
Прогнозируемый положительный (ПП)Прогнозируемый отрицательный (PN)Информированность , букмекерская информированность (БМ)
= TPR + TNR − 1
Порог распространенности (PT)
= TPR × FPR - FPR/ТПР - ФПР
Фактическое состояние
Положительный (P) [a]Истинно положительный (TP),
удар [b]
Ложноотрицательный результат (ЛО),
промах, недооценка
Истинно положительный процент (TPR), отзыв , чувствительность (SEN), вероятность обнаружения, процент попаданий, мощность
= ТП/П = 1 − ФНР
Ложноотрицательный коэффициент (ЛКО),
коэффициент
ошибок типа II [c]
= ФН/П = 1 − ТПР
Отрицательно (Н) [г]Ложноположительный результат (ЛП),
ложная тревога, переоценка
Истинно отрицательный (TN),
правильное отклонение [e]
Коэффициент ложных срабатываний (FPR),
вероятность ложной тревоги, ошибка
типа I [f]
= ФП/Н = 1 − ТНР
Истинно отрицательный показатель (TNR),
специфичность (SPC), селективность
= ТН/Н = 1 − ФПР
Распространенность
= П/П + Н
Положительная прогностическая ценность (PPV), точность
= ТП/ПП = 1 − ФДР
Коэффициент ложного пропуска (FOR)
= ФН/ПН = 1 − ЧПС
Положительное отношение правдоподобия (LR+)
= ТПР/ФПР
Отрицательное отношение правдоподобия (LR−)
= ФНР/ТНР
Точность (ACC)
= ТП + ТН/П + Н
Коэффициент ложных срабатываний (FDR)
= ФП/ПП = 1 − ППЦ
Отрицательная прогностическая ценность (NPV)
= ТН/ПН = 1 − ДЛЯ
Маркированность (МК), дельтаП (Δp)
= PPV + NPV − 1
Диагностическое отношение шансов (DOR)
= ЛР+/ЛР−
Сбалансированная точность (BA)
= ТПР + ТНР/2
F 1 оценка
= 2 PPV × TPR/ППВ + ТПР = 2 ТП/2 ТП + ФП + ФН
Индекс Фаулкса–Мэллоуза (FM)
= PPV × TPR
Коэффициент корреляции Мэтьюса (MCC)
= TPR × TNR × PPV × NPV - FNR × FPR × FOR × FDR
Оценка угрозы (TS), индекс критического успеха (CSI), индекс Жаккара
= ТП/ТП + ФН + ФП
  1. ^ количество реальных положительных случаев в данных
  2. ^ Результат теста, который правильно указывает на наличие состояния или характеристики.
  3. ^ Ошибка типа II: результат теста, который ошибочно указывает на отсутствие определенного условия или атрибута.
  4. ^ количество реальных отрицательных случаев в данных
  5. ^ Результат теста, который правильно указывает на отсутствие состояния или характеристики.
  6. ^ Ошибка типа I: результат теста, который ошибочно указывает на наличие определенного состояния или атрибута.


Многоклассовый случай

Коэффициент корреляции Мэтьюса был обобщен на случай нескольких классов. Обобщение, называемое статистикой (для K различных классов), было определено в терминах матрицы путаницы [22] . [23] R K {\displaystyle R_{K}} K × K {\displaystyle K\times K} C {\displaystyle C}

MCC = k l m C k k C l m C k l C m k k ( l C k l ) ( k | k k l C k l ) k ( l C l k ) ( k | k k l C l k ) {\displaystyle {\text{MCC}}={\frac {\sum _{k}\sum _{l}\sum _{m}C_{kk}C_{lm}-C_{kl}C_{mk}}{{\sqrt {\sum _{k}\left(\sum _{l}C_{kl}\right)\left(\sum _{k'|k'\neq k}\sum _{l'}C_{k'l'}\right)}}{\sqrt {\sum _{k}\left(\sum _{l}C_{lk}\right)\left(\sum _{k'|k'\neq k}\sum _{l'}C_{l'k'}\right)}}}}}

Если меток больше двух, MCC больше не будет находиться в диапазоне от −1 до +1. Вместо этого минимальное значение будет находиться в диапазоне от −1 до 0 в зависимости от истинного распределения. Максимальное значение всегда равно +1.


Эту формулу можно легче понять, определив промежуточные переменные: [24]

  • t k = i C i k {\displaystyle t_{k}=\sum _{i}C_{ik}} количество раз, когда класс k действительно возникал,
  • p k = i C k i {\displaystyle p_{k}=\sum _{i}C_{ki}} количество раз, когда класс k был предсказан,
  • c = k C k k {\displaystyle c=\sum _{k}C_{kk}} общее количество правильно предсказанных образцов,
  • s = i j C i j {\displaystyle s=\sum _{i}\sum _{j}C_{ij}} общее количество образцов. Это позволяет выразить формулу как:
MCC = c s t p s 2 p p s 2 t t {\displaystyle {\text{MCC}}={\frac {cs-{\vec {t}}\cdot {\vec {p}}}{{\sqrt {s^{2}-{\vec {p}}\cdot {\vec {p}}}}{\sqrt {s^{2}-{\vec {t}}\cdot {\vec {t}}}}}}}
Предсказанный
класс
Фактический класс
КотСобакаСумма
Кот628
Собака134
Сумма7512

Используя приведенную выше формулу для вычисления меры MCC для примера с собакой и кошкой, рассмотренного выше, где матрица путаницы рассматривается как пример 2 × Multiclass:

MCC = ( 6 + 3 ) × 12 5 × 4 7 × 8 12 2 5 2 7 2 12 2 4 2 8 2 = 32 4480 0.478 {\displaystyle {\text{MCC}}={\frac {(6+3)\times {\color {green}12}\;-\;{\color {blue}5}\times {\color {brown}4}\;-\;{\color {purple}7}\times {\color {maroon}8}}{{\sqrt {{\color {green}12}^{2}-{\color {blue}5}^{2}-{\color {purple}7}^{2}}}{\sqrt {{\color {green}12}^{2}-{\color {brown}4}^{2}-{\color {maroon}8}^{2}}}}}={\frac {32}{\sqrt {4480}}}\approx 0.478}

Альтернативное обобщение коэффициента корреляции Мэтьюза на более чем два класса было дано Пауэрсом [10] путем определения корреляции как геометрического среднего значения информированности и маркированности .

Несколько обобщений коэффициента корреляции Мэтьюза на более чем два класса, а также новые многомерные метрики корреляции для многомерной классификации были представлены П. Стоикой и П. Бабу [25] .

Преимущества по точности и результату F1

Как объяснил Давиде Чикко в своей статье «Десять быстрых советов по машинному обучению в вычислительной биологии » [12] ( BioData Mining , 2017) и «Преимущества коэффициента корреляции Мэтьюза (MCC) по сравнению с оценкой F1 и точностью при оценке бинарной классификации» [26] ( BMC Genomics , 2020), коэффициент корреляции Мэтьюза более информативен, чем оценка F1 и точность при оценке задач бинарной классификации, поскольку он учитывает соотношения баланса четырех категорий матрицы путаницы (истинно положительные, истинно отрицательные, ложно положительные, ложно отрицательные). [12] [26]

В предыдущей статье поясняется, что касается совета 8 : [ излишняя цитата ]

Чтобы получить общее представление о своем прогнозе, вы решаете воспользоваться общими статистическими показателями, такими как точность и показатель F1.

accuracy = T P + T N T P + T N + F P + F N {\displaystyle {\text{accuracy}}={\frac {TP+TN}{TP+TN+FP+FN}}}

(Уравнение 1, точность: наихудшее значение = 0; наилучшее значение = 1)

F1 score = 2 T P 2 T P + F P + F N {\displaystyle {\text{F1 score}}={\frac {2TP}{2TP+FP+FN}}}

(Уравнение 2, оценка F1: худшее значение = 0; наилучшее значение = 1)

Однако даже если точность и оценка F1 широко используются в статистике, оба они могут вводить в заблуждение, поскольку они не в полной мере учитывают размер четырех классов матрицы неточностей при вычислении окончательной оценки.

Предположим, например, что у вас есть очень несбалансированный набор проверки, состоящий из 100 элементов, 95 из которых являются положительными элементами, и только 5 являются отрицательными элементами (как объяснено в Совете 5). И предположим также, что вы допустили некоторые ошибки при проектировании и обучении вашего классификатора машинного обучения, и теперь у вас есть алгоритм, который всегда предсказывает положительное. Представьте, что вы не знаете об этой проблеме.

Таким образом, применяя ваш единственный положительный предиктор к вашему несбалансированному проверочному набору, вы получаете значения для категорий матрицы путаницы:

TP = 95, FP = 5; TN = 0, FN = 0.

Эти значения приводят к следующим показателям производительности: точность = 95% и оценка F1 = 97,44%. Прочитав эти сверхоптимистичные оценки, вы будете очень довольны и подумаете, что ваш алгоритм машинного обучения отлично справляется. Очевидно, вы на неправильном пути.

Напротив, чтобы избежать этих опасных вводящих в заблуждение иллюзий, есть еще один показатель эффективности, который вы можете использовать: коэффициент корреляции Мэтьюза [40] (MCC).

MCC = T P × T N F P × F N ( T P + F P ) ( T P + F N ) ( T N + F P ) ( T N + F N ) {\displaystyle {\text{MCC}}={\frac {TP\times TN-FP\times FN}{\sqrt {(TP+FP)(TP+FN)(TN+FP)(TN+FN)}}}}

(Уравнение 3, MCC: наихудшее значение = −1; наилучшее значение = +1).

Учитывая долю каждого класса матрицы неточностей в формуле, ее оценка будет высокой только в том случае, если ваш классификатор хорошо справляется как с отрицательными, так и с положительными элементами.

В приведенном выше примере оценка MCC будет неопределенной (поскольку TN и FN будут равны 0, следовательно, знаменатель уравнения 3 будет равен 0). Проверяя это значение вместо точности и оценки F1, вы сможете заметить, что ваш классификатор движется в неправильном направлении, и вы поймете, что есть проблемы, которые следует решить, прежде чем продолжать.

Рассмотрим другой пример. Вы провели классификацию на том же наборе данных, что привело к следующим значениям для категорий матрицы путаницы:

TP = 90, FP = 4; TN = 1, FN = 5.

В этом примере классификатор хорошо справился с классификацией положительных случаев, но не смог правильно распознать отрицательные элементы данных. Опять же, результирующие баллы F1 и баллы точности будут чрезвычайно высокими: точность = 91%, а баллы F1 = 95,24%. Аналогично предыдущему случаю, если бы исследователь проанализировал только эти два показателя баллов, не принимая во внимание MCC, он бы ошибочно подумал, что алгоритм достаточно хорошо справляется со своей задачей, и у него возникла бы иллюзия успеха.

С другой стороны, проверка коэффициента корреляции Мэтьюса снова будет иметь решающее значение. В этом примере значение MCC будет равно 0,14 (уравнение 3), что указывает на то, что алгоритм работает аналогично случайному угадыванию. Действуя как сигнал тревоги, MCC сможет сообщить специалисту по интеллектуальному анализу данных, что статистическая модель работает плохо.

По этим причинам мы настоятельно рекомендуем оценивать эффективность каждого теста с помощью коэффициента корреляции Мэтьюза (MCC), а не точности и показателя F1 для любой задачи бинарной классификации.

—  Давиде Чикко, Десять быстрых советов по машинному обучению в вычислительной биологии [12]

Отрывок Чикко можно интерпретировать как одобрение оценки MCC в случаях с несбалансированными наборами данных. Однако это оспаривается; в частности, Чжу (2020) предлагает сильное опровержение. [27]

Обратите внимание, что оценка F1 зависит от того, какой класс определен как положительный класс. В первом примере выше оценка F1 высока, поскольку класс большинства определен как положительный класс. Инвертирование положительных и отрицательных классов приводит к следующей матрице путаницы:

TP = 0, FP = 0; TN = 5, FN = 95

Это дает оценку F1 = 0%.

MCC не зависит от того, какой класс является положительным, что имеет преимущество перед оценкой F1, поскольку позволяет избежать неправильного определения положительного класса.

Смотрите также

Ссылки

  1. ^ ab Matthews, BW (1975). "Сравнение предсказанной и наблюдаемой вторичной структуры лизоцима фага T4". Biochimica et Biophysica Acta (BBA) - Структура белка . 405 (2): 442–451. doi :10.1016/0005-2795(75)90109-9. PMID  1180967.
  2. ^ ab Cramer, H. (1946). Математические методы статистики . Принстон: Princeton University Press, стр. 282 (второй абзац). ISBN 0-691-08004-6 https://archive.org/details/in.ernet.dli.2015.223699 
  3. ^ ab Yule, G. Udny (1912). «О методах измерения связи между двумя атрибутами». Журнал Королевского статистического общества . 75 (6): 579–652. doi :10.2307/2340126. JSTOR  2340126.
  4. ^ Гилфорд, Дж. (1936). Психометрические методы . Нью-Йорк: McGraw–Hill Book Company, Inc.
  5. ^ Аарон, Б., Кромри, Дж. Д. и Феррон, Дж. М. (1998, ноябрь). Уравнивание индексов размера эффекта на основе r и d: проблемы с общепринятой рекомендуемой формулой. Доклад, представленный на ежегодном собрании Ассоциации образовательных исследований Флориды, Орландо, Флорида. (ERIC Document Reproduction Service No. ED433353)
  6. ^ Дэвенпорт, Э.; Эль-Санхури, Н. (1991). «Phi/Phimax: обзор и синтез». Образовательные и психологические измерения . 51 (4): 821–8. doi :10.1177/0013164491051004.
  7. Дата неизвестна, но до его смерти в 1936 году.
  8. ^ Boughorbel, SB (2017). «Оптимальный классификатор для несбалансированных данных с использованием метрики коэффициента корреляции Мэтьюза». PLOS ONE . 12 (6): e0177678. Bibcode : 2017PLoSO..1277678B. doi : 10.1371/journal.pone.0177678 . PMC 5456046. PMID  28574989 . 
  9. ^ Chicco, D.; Tötsch, N.; Jurman, G. (2021). «Коэффициент корреляции Мэтьюса (MCC) более надежен, чем сбалансированная точность, информированность букмекера и маркированность при оценке двухклассовой матрицы путаницы». BioData Mining . 14 (1): 13. doi : 10.1186/s13040-021-00244-z . PMC 7863449 . PMID  33541410. 
  10. ^ abcd Powers, David MW (10 октября 2020 г.). «Оценка: от точности, отзыва и F-меры до ROC, информированности, маркированности и корреляции». arXiv : 2010.16061 [cs.LG].
  11. ^ Перруче, П.; Пирман, Р. (2004). «Использование распределительной информации при обработке слогов». J. Neurolinguistics . 17 (2–3): 97–119. doi :10.1016/s0911-6044(03)00059-9. S2CID  17104364.
  12. ^ abcd Chicco D (декабрь 2017 г.). «Десять быстрых советов по машинному обучению в вычислительной биологии». BioData Mining . 10 (35): 35. doi : 10.1186/s13040-017-0155-3 . PMC 5721660. PMID  29234465 . 
  13. ^ Chicco D, Jurman G (февраль 2023 г.). «Коэффициент корреляции Мэтьюса (MCC) должен заменить ROC AUC в качестве стандартной метрики для оценки бинарной классификации». BioData Min . 16 (1): 4. doi : 10.1186/s13040-023-00322-4 . PMC 9938573. PMID  36800973 . 
  14. ^ Фосетт, Том (2006). «Введение в ROC-анализ» (PDF) . Pattern Recognition Letters . 27 (8): 861–874. doi :10.1016/j.patrec.2005.10.010. S2CID  2027090.
  15. ^ Провост, Фостер; Том Фосетт (2013-08-01). «Наука о данных для бизнеса: что вам нужно знать о добыче данных и аналитическом мышлении». O'Reilly Media, Inc.
  16. ^ Пауэрс, Дэвид МВ (2011). «Оценка: от точности, полноты и F-меры до ROC, информированности, маркированности и корреляции». Журнал технологий машинного обучения . 2 (1): 37–63.
  17. ^ Ting, Kai Ming (2011). Sammut, Claude; Webb, Geoffrey I. (ред.). Энциклопедия машинного обучения . Springer. doi :10.1007/978-0-387-30164-8. ISBN 978-0-387-30164-8.
  18. ^ Брукс, Гарольд; Браун, Барб; Эберт, Бет; Ферро, Крис; Джоллифф, Ян; Кох, Тие-Йонг; Рёббер, Пол; Стивенсон, Дэвид (2015-01-26). "WWRP/WGNE Joint Working Group on Forecast Verification Research". Collaboration for Australian Weather and Climate Research . World Meteorological Organization . Получено 17 июля 2019 г.
  19. ^ Chicco D, Jurman G (январь 2020 г.). «Преимущества коэффициента корреляции Мэтьюса (MCC) над оценкой F1 и точностью оценки бинарной классификации». BMC Genomics . 21 (1): 6-1–6-13. doi : 10.1186/s12864-019-6413-7 . PMC 6941312 . PMID  31898477. 
  20. ^ Chicco D, Toetsch N, Jurman G (февраль 2021 г.). «Коэффициент корреляции Мэтьюса (MCC) более надежен, чем сбалансированная точность, информированность букмекера и маркированность при оценке двухклассовой матрицы путаницы». BioData Mining . 14 (13): 13. doi : 10.1186/s13040-021-00244-z . PMC 7863449 . PMID  33541410. 
  21. ^ Tharwat A. (август 2018 г.). «Методы оценки классификации». Прикладная вычислительная техника и информатика . 17 : 168–192. doi : 10.1016/j.aci.2018.08.003 .
  22. ^ Городкин, Ян (2004). «Сравнение двух назначений K-категории с помощью коэффициента корреляции K-категории». Computational Biology and Chemistry . 28 (5): 367–374. doi :10.1016/j.compbiolchem.2004.09.006. PMID  15556477.
  23. ^ Городкин, Ян. "The Rk Page". The Rk Page . Получено 28 декабря 2016 г. .
  24. ^ "Коэффициент корреляции Мэтью". scikit-learn.org .
  25. ^ Stoica P и Babu P (2024), Коэффициенты корреляции Пирсона–Мэтьюса для двоичной и множественной классификации, Elsevier Signal Processing, 222, 109511, doi = https://doi.org/10.1016/j.sigpro.2024.109511
  26. ^ ab Chicco D, Jurman G (январь 2020 г.). «Преимущества коэффициента корреляции Мэтьюса (MCC) по сравнению с оценкой F1 и точностью оценки бинарной классификации». BMC Genomics . 21 (1): 6-1–6-13. doi : 10.1186/s12864-019-6413-7 . PMC 6941312 . PMID  31898477. 
  27. ^ Чжу, Цюмин (2020-08-01). «О производительности коэффициента корреляции Мэтьюса (MCC) для несбалансированного набора данных». Pattern Recognition Letters . 136 : 71–80. Bibcode :2020PaReL.136...71Z. doi :10.1016/j.patrec.2020.03.030. ISSN  0167-8655. S2CID  219762950.


Retrieved from "https://en.wikipedia.org/w/index.php?title=Phi_coefficient&oldid=1231260142"