Модель Брэдли–Терри

Статистическая модель для парных сравнений

Модель Брэдли–Терри — это вероятностная модель для результата парных сравнений между элементами, командами или объектами. При наличии пары элементов i и j, взятых из некоторой популяции , она оценивает вероятность того, что парное сравнение i > j окажется верным, как

где p i — положительная реальная оценка, присвоенная индивидууму i . Сравнение i > j можно читать как « i предпочтительнее j », « i ранжируется выше j » или « i превосходит j », в зависимости от приложения.

Например, p i может представлять мастерство команды в спортивном турнире и вероятность того, что i выиграет игру против j . [1] [2] Или p i может представлять качество или желательность коммерческого продукта и вероятность того, что потребитель предпочтет продукт i продукту j . Пр ( я > дж ) {\displaystyle \Pr(i>j)} Пр ( я > дж ) {\displaystyle \Pr(i>j)}

Модель Брэдли–Терри может использоваться в прямом направлении для прогнозирования результатов, как описано, но чаще используется в обратном направлении для выведения оценок p i с учетом наблюдаемого набора результатов. [2] В этом типе применения p i представляет собой некоторую меру силы или качества , и модель позволяет нам оценивать силы из серии парных сравнений. Например, в опросе предпочтений в отношении вина респондентам может быть сложно дать полный рейтинг большого набора вин, но им относительно легко сравнить пары образцов вин и сказать, какое из них, по их мнению, лучше. Основываясь на наборе таких парных сравнений, модель Брэдли–Терри затем может использоваться для получения полного рейтинга вин. я {\displaystyle я}

После того, как значения оценок p i были рассчитаны, модель может затем также использоваться в прямом направлении, например, для прогнозирования вероятного результата сравнений, которые еще не произошли. В примере с опросом о вине, например, можно было бы рассчитать вероятность того, что кто-то предпочтет вино вместо вина , даже если никто в опросе напрямую не сравнивал эту конкретную пару. я {\displaystyle я} дж {\displaystyle j}

История и применение

Модель названа в честь Ральфа А. Брэдли и Милтона Э. Терри, [3] которые представили ее в 1952 году, [4] хотя она уже была изучена Эрнстом Цермело в 1920-х годах. [1] [5] [6] Приложения модели включают ранжирование участников спортивных, шахматных и других соревнований, [7] ранжирование продуктов в парных сравнительных опросах потребительского выбора , анализ иерархий доминирования в сообществах животных и людей, [8] ранжирование журналов , ранжирование моделей ИИ, [9] и оценку релевантности документов в поисковых системах с машинным обучением . [10]

Определение

Модель Брэдли–Терри может быть параметризована различными способами. Уравнение ( 1 ), возможно, является наиболее распространенным, но есть и ряд других. Брэдли и Терри сами определили экспоненциальные функции оценки , так что [2] п я = е β я {\displaystyle p_{i}=e^{\beta _{i}}}

Пр ( я > дж ) = е β я е β я + е β дж . {\displaystyle \Pr(i>j)={\frac {e^{\beta _{i}}}{e^{\beta _{i}}+e^{\beta _{j}}}} .}

В качестве альтернативы можно использовать логит , такой что [1]

логит Пр ( я > дж ) = бревно Пр ( я > дж ) 1 Пр ( я > дж ) = бревно Пр ( я > дж ) Пр ( дж > я ) = β я β дж , {\displaystyle \operatorname {logit} \Pr(i>j)=\log {\frac {\Pr(i>j)}{1-\Pr(i>j)}}=\log {\frac {\Pr(i>j)}{\Pr(j>i)}}=\beta _{i}-\beta _{j},}

т.е. для логит п = бревно п 1 п {\textstyle \operatorname {logit} p=\log {\frac {p}{1-p}}} 0 < п < 1. {\textstyle 0<p<1.}

Эта формулировка подчеркивает сходство между моделью Брэдли–Терри и логистической регрессией . Обе используют по сути одну и ту же модель, но по-разному. В логистической регрессии обычно известны параметры и делается попытка вывести функциональную форму ; при ранжировании по модели Брэдли–Терри известна функциональная форма и делается попытка вывести параметры. β я {\displaystyle \beta _{i}} Пр ( я > дж ) {\displaystyle \Pr(i>j)}

При масштабном коэффициенте 400 это эквивалентно системе рейтинга Эло для игроков с рейтингами Эло R i и R j .

Пр ( я > дж ) = е Р я / 400 е Р я / 400 + е Р дж / 400 = 1 1 + е ( Р дж Р я ) / 400 . {\displaystyle \Pr(i>j)={\frac {e^{R_{i}/400}}{e^{R_{i}/400}+e^{R_{j}/400}}}={\frac {1}{1+e^{(R_{j}-R_{i})/400}}}.}

Модель Плакетта–Льюса

Стандартным обобщением модели BT является модель Плакетта– Льюса , [11] [12] , которая моделирует ранжирование элементов. В тех же обозначениях, что и модель BT: Это можно представить как вытягивание из урны с заменой . Урна содержит шары, окрашенные пропорционально , ​​и один извлекается из урны с заменой. Если у шара новый цвет, то этот шар помещается в качестве следующего по рангу шара. В противном случае, если шар имеет уже вытянутый цвет, то он отбрасывается. Н {\displaystyle N} Пр ( у 1 > > у Н ) = п у 1 п у 1 + + п у Н п у 2 п у 2 + + п у Н п у Н п у Н {\displaystyle \Pr(y_{1}>\dots >y_{N})={\frac {p_{y_{1}}}{p_{y_{1}}+\dots +p_{y_{N} }}}{\frac {p_{y_{2}}}{p_{y_{2}}+\dots +p_{y_{N}}}}\dots {\frac {p_{y_{N}}}{p_{y_{N}}}}} п 1 , п 2 , , п Н {\displaystyle p_{1},p_{2},\точки ,p_{N}}

Учитывая пропорции , модель PL может быть выбрана методом «экспоненциальной гонки». Один выбирает «время радиоактивного распада» из « экспоненциальных часов», то есть . Затем ранжирует элементы в соответствии с порядком, в котором они распались. В этой интерпретации сразу становится ясно, что модель PL удовлетворяет аксиоме выбора Люса (из того же Люса). Следовательно, для любых двух , сводится к модели BT, и в общем случае для любого подмножества выборов сводится к меньшей модели PL с теми же параметрами. п 1 , п 2 , , п Н {\displaystyle p_{1},p_{2},\точки ,p_{N}} Н {\displaystyle N} т 1 Э х п ( п 1 ) , , т Н Э х п ( п Н ) {\displaystyle t_{1}\sim \mathrm {Exp} (p_{1}),\dots ,t_{N}\sim \mathrm {Exp} (p_{N})} у , з {\displaystyle y,z} Пр ( у > з ) = п у п у + п з {\displaystyle \Pr(y>z)={\frac {p_{y}}{p_{y}+p_{z}}}} у 1 , , у М {\displaystyle y_{1},\dots,y_{M}} Пр ( у 1 > > у Н ) = п у 1 п у 1 + + п у М п у 2 п у 2 + + п у М п у М п у М {\displaystyle \Pr(y_{1}>\dots >y_{N})={\frac {p_{y_{1}}}{p_{y_{1}}+\dots +p_{y_{M}}}}{\frac {p_{y_{2}}}{p_{y_{2}}+\dots +p_{y_{M}}}}\dots {\frac {p_{y_{M}}}{p_{y_{M}}}}}

Вывод

Наиболее распространенное применение модели Брэдли–Терри — выведение значений параметров на основе наблюдаемого набора результатов , таких как победы и поражения в соревновании. Самый простой способ оценки параметров — оценка максимального правдоподобия , т. е. максимизация вероятности наблюдаемых результатов с учетом модели и значений параметров. п я {\displaystyle p_{i}} я > дж {\displaystyle я>j}

Предположим, что мы знаем результаты набора парных соревнований между определенной группой индивидуумов, и пусть w ij будет числом раз, когда индивидуум i побеждает индивидуума j . Тогда вероятность этого набора результатов в модели Брэдли–Терри равна , а логарифмическое правдоподобие вектора параметров p = [ p 1 , ..., p n ] равно [1] я дж [ Пр ( я > дж ) ] ж я дж {\displaystyle \prod _{ij}[\Pr(i>j)]^{w_{ij}}}

л ( п ) = вн я дж [ Пр ( я > дж ) ] ж я дж = я = 1 н дж = 1 н вн [ ( п я п я + п дж ) ж я дж ] = я дж ж я дж вн ( п я п я + п дж ) = я дж [ ж я дж вн ( п я ) ж я дж вн ( п я + п дж ) ] . {\displaystyle {\begin{aligned}{\mathcal {l}}(\mathbf {p} )&=\ln \prod _{ij}{{\bigl [}\Pr(i>j){\bigr ]}}^{w_{ij}}=\sum _{i=1}^{n}\sum _{j=1}^{n}\ln {\biggl [}\left({\frac {p_{i}}{p_{i}+p_{j}}}\right)^{w_{ij}}{\biggr ]}\\[6pt]&=\sum _{ij}w_{ij}\ln {\biggl (}{\frac {p_{i}}{p_{i}+p_{j}}}{\biggr )}=\sum _{ij}{\bigl [}w_{ij}\ln(p_{i})-w_{ij}\ln(p_{i}+p_{j}){\bigr ]}.\end{aligned}}}

Цермело [5] показал, что это выражение имеет только один максимум, который можно найти, дифференцируя по и приравнивая результат к нулю, что приводит к p i {\displaystyle p_{i}}

Это уравнение не имеет известного решения в замкнутой форме, но Цермело предложил решить его простой итерацией. Начиная с любого удобного набора (положительных) начальных значений для , итеративно выполняется обновление p i {\displaystyle p_{i}}

для всех i по очереди. Результирующие параметры произвольны с точностью до общей мультипликативной константы, поэтому после вычисления всех новых значений их следует нормализовать, разделив на их геометрическое среднее, таким образом:

Эта процедура оценки улучшает логарифмическое правдоподобие на каждой итерации и гарантированно в конечном итоге достигает уникального максимума. [5] [13] Однако она медленно сходится. [1] [14] Совсем недавно было отмечено [15], что уравнение ( 2 ) также можно переписать как

p i = j w i j p j / ( p i + p j ) j w j i / ( p i + p j ) , {\displaystyle p_{i}={\frac {\sum _{j}w_{ij}p_{j}/(p_{i}+p_{j})}{\sum _{j}w_{ji}/(p_{i}+p_{j})}},}

которую можно решить путем итерации

снова нормализуя после каждого раунда обновлений с использованием уравнения ( 4 ). Эта итерация дает идентичные результаты, что и в ( 3 ), но сходится гораздо быстрее и, следовательно, обычно предпочтительнее, чем ( 3 ). [15]

Рабочий пример процедуры решения

Рассмотрим спортивное соревнование между четырьмя командами, которые играют между собой в общей сложности 22 игры. Победы каждой команды указаны в строках таблицы ниже, а соперники указаны в столбцах:

Результаты
АБСД
А201
Б350
С031
Д403

Например, команда A дважды обыграла команду B и трижды проиграла команде B; вообще не играла с командой C; выиграла один раз и проиграла четыре раза команде D.

Мы хотели бы оценить относительную силу команд, что мы делаем, вычисляя параметры , где более высокие параметры указывают на большую доблесть. Для этого мы инициализируем четыре записи в векторе параметров p произвольно, например, присваивая значение 1 каждой команде: [1, 1, 1, 1] . Затем мы применяем уравнение ( 5 ) для обновления , что дает p i {\displaystyle p_{i}} p 1 {\displaystyle p_{1}}

p 1 = j ( 1 ) w 1 j p j / ( p 1 + p j ) j ( 1 ) w j 1 / ( p 1 + p j ) = 2 1 1 + 1 + 0 1 1 + 1 + 1 1 1 + 1 3 1 1 + 1 + 0 1 1 + 1 + 4 1 1 + 1 = 0.429. {\displaystyle p_{1}={\frac {\sum _{j(\neq 1)}w_{1j}p_{j}/(p_{1}+p_{j})}{\sum _{j(\neq 1)}w_{j1}/(p_{1}+p_{j})}}={\frac {2{\frac {1}{1+1}}+0{\frac {1}{1+1}}+1{\frac {1}{1+1}}}{3{\frac {1}{1+1}}+0{\frac {1}{1+1}}+4{\frac {1}{1+1}}}}=0.429.}

Теперь мы снова применяем ( 5 ) для обновления , убедившись, что используем новое значение, которое мы только что вычислили: p 2 {\displaystyle p_{2}} p 1 {\displaystyle p_{1}}

p 2 = j ( 2 ) w 2 j p j / ( p 2 + p j ) j ( 2 ) w j 2 / ( p 2 + p j ) = 3 0.429 1 + 0.429 + 5 1 1 + 1 + 0 1 1 + 1 2 1 1 + 0.429 + 3 1 1 + 1 + 0 1 1 + 1 = 1.172 {\displaystyle p_{2}={\frac {\sum _{j(\neq 2)}w_{2j}p_{j}/(p_{2}+p_{j})}{\sum _{j(\neq 2)}w_{j2}/(p_{2}+p_{j})}}={\frac {3{\frac {0.429}{1+0.429}}+5{\frac {1}{1+1}}+0{\frac {1}{1+1}}}{2{\frac {1}{1+0.429}}+3{\frac {1}{1+1}}+0{\frac {1}{1+1}}}}=1.172}

Аналогично для и получаем p 3 {\displaystyle p_{3}} p 4 {\displaystyle p_{4}}

p 3 = j ( 3 ) w 3 j p j / ( p 3 + p j ) j ( 3 ) w j 3 / ( p 3 + p j ) = 0 0.429 1 + 0.429 + 3 1.172 1 + 1.172 + 1 1 1 + 1 0 1 1 + 0.429 + 5 1 1 + 1.172 + 3 1 1 + 1 = 0.557 {\displaystyle p_{3}={\frac {\sum _{j(\neq 3)}w_{3j}p_{j}/(p_{3}+p_{j})}{\sum _{j(\neq 3)}w_{j3}/(p_{3}+p_{j})}}={\frac {0{\frac {0.429}{1+0.429}}+3{\frac {1.172}{1+1.172}}+1{\frac {1}{1+1}}}{0{\frac {1}{1+0.429}}+5{\frac {1}{1+1.172}}+3{\frac {1}{1+1}}}}=0.557}

p 4 = j ( 4 ) w 4 j p j / ( p 4 + p j ) j ( 4 ) w j 4 / ( p 4 + p j ) = 4 0.429 1 + 0.429 + 0 1.172 1 + 1.172 + 3 0.557 1 + 0.557 1 1 1 + 0.429 + 0 1 1 + 1.172 + 1 1 1 + 0.557 = 1.694 {\displaystyle p_{4}={\frac {\sum _{j(\neq 4)}w_{4j}p_{j}/(p_{4}+p_{j})}{\sum _{j(\neq 4)}w_{j4}/(p_{4}+p_{j})}}={\frac {4{\frac {0.429}{1+0.429}}+0{\frac {1.172}{1+1.172}}+3{\frac {0.557}{1+0.557}}}{1{\frac {1}{1+0.429}}+0{\frac {1}{1+1.172}}+1{\frac {1}{1+0.557}}}}=1.694}

Затем мы нормализуем все параметры, разделив их на их среднее геометрическое значение , чтобы получить оценочные параметры p = [0,516, 1,413, 0,672, 2,041] . ( 0.429 × 1.172 × 0.557 × 1.694 ) 1 / 4 = 0.830 {\displaystyle (0.429\times 1.172\times 0.557\times 1.694)^{1/4}=0.830}

Чтобы еще больше улучшить оценки, мы повторяем процесс, используя новые значения p . Например,

p 1 = 2 1.413 0.516 + 1.413 + 0 0.672 0.516 + 0.672 + 1 2.041 0.516 + 2.041 3 1 0.516 + 1.413 + 0 1 0.516 + 0.672 + 4 1 0.516 + 2.041 = 0.725. {\displaystyle p_{1}={\frac {2\cdot {\frac {1.413}{0.516+1.413}}+0\cdot {\frac {0.672}{0.516+0.672}}+1\cdot {\frac {2.041}{0.516+2.041}}}{3\cdot {\frac {1}{0.516+1.413}}+0\cdot {\frac {1}{0.516+0.672}}+4\cdot {\frac {1}{0.516+2.041}}}}=0.725.}

Повторяя этот процесс для оставшихся параметров и нормализуя, мы получаем p = [0,677, 1,034, 0,624, 2,287] . Повторение еще 10 раз дает быструю сходимость к окончательному решению p = [0,640, 1,043, 0,660, 2,270] . Это означает, что команда D является сильнейшей, а команда B — второй по силе, в то время как команды A и C почти равны по силе, но уступают командам B и D. Таким образом, модель Брэдли–Терри позволяет нам сделать вывод о взаимосвязи между всеми четырьмя командами, даже если не все команды играли друг с другом.

Вариации

Crowd-BT

Модель Crowd-BT, разработанная в 2013 году Ченом и др. [16], пытается расширить стандартную модель Брэдли–Терри для краудсорсинговых настроек, одновременно сокращая количество необходимых сравнений, принимая во внимание надежность каждого судьи. В частности, она выявляет и исключает судей, предположительно являющихся спамерами (выбирающими варианты случайным образом) или злонамеренными (выбирающими всегда неправильный выбор). В краудсорсинговой задаче ранжирования документов по сложности чтения с 624 судьями, каждый из которых вносил до 40 парных сравнений, было показано, что Crowd-BT превосходит как стандартную модель Брэдли–Терри, так и систему ранжирования TrueSkill . Она была рекомендована для использования, когда качественные результаты ценятся выше эффективности, а количество сравнений велико. [17]

Смотрите также

Ссылки

  1. ^ abcde Хантер, Дэвид Р. (2004). «Алгоритмы ММ для обобщенных моделей Брэдли–Терри». Анналы статистики . 32 (1): 384– 406. CiteSeerX  10.1.1.110.7878 . doi :10.1214/aos/1079120141. JSTOR  3448514.
  2. ^ abc Agresti, Alan (2014). Категориальный анализ данных . John Wiley & Sons. С.  436–439 .
  3. ^ EEM van Berkum. "Модель Брэдли-Терри". Энциклопедия математики . Получено 18 ноября 2014 г.
  4. ^ Брэдли, Ральф Аллан; Терри, Милтон Э. (1952). «Ранговый анализ неполных блочных схем: I. Метод парных сравнений». Biometrika . 39 (3/4): 324–345 . doi :10.2307/2334029. JSTOR  2334029.
  5. ^ abc Цермело, Эрнст (1929). «Die Berechnung der Turnier-Ergebnisse als ein Maximumproblem der Wahrscheinlichkeitsrechnung». Mathematische Zeitschrift . 29 (1): 436–460 . doi : 10.1007/BF01180541. S2CID  122877703.
  6. ^ Хайнц-Дитер Эббингауз (2007), Эрнст Цермело: Подход к его жизни и творчеству , Springer, стр.  268–269 , ISBN 9783540495536
  7. ^ Шев, А.; Фуджи, К.; Хси, Ф.; МакКован, Б. (2014). «Системное тестирование модели Брэдли-Терри против нелинейной иерархии ранжирования». PLOS One . 9 (12): e115367. doi : 10.1371/journal.pone.0115367 . PMC 4274013. PMID  25531899 . 
  8. ^ Бойд, Роберт; Силк, Джоан Б. (1983). «Метод назначения рангов кардинального доминирования». Animal Behaviour . 31 (1): 45–58 . doi :10.1016/S0003-3472(83)80172-9. S2CID  53178779.
  9. ^ "Chatbot Arena: Новые модели и обновление системы Elo | LMSYS Org". lmsys.org . Получено 2024-01-30 .
  10. ^ Шуммер, Мартин; Йилмаз, Эмине (2011). Полуконтролируемое обучение ранжированию с регуляризацией предпочтений (PDF) . CIKM.
  11. ^ Плакетт, Р. Л. (1975). «Анализ перестановок». Прикладная статистика . 24 (2): 193. doi :10.2307/2346567.
  12. ^ Люс, РД (1959). Индивидуальный выбор поведения: теоретический анализ . Wiley.
  13. ^ Форд, младший, Л. Р. (1957). «Решение проблемы ранжирования с помощью бинарных сравнений». American Mathematical Monthly . 64 (8): 28– 33. doi :10.1080/00029890.1957.11989117.
  14. ^ Dykstra, Jr., Otto (1956). «Заметка о ранговом анализе неполных блочных конструкций». Биометрия . 12 : 301–306 . doi :10.2307/2334029. JSTOR  2334029.
  15. ^ ab Newman, MEJ (2023). «Эффективное вычисление рейтингов из парных сравнений». Журнал исследований машинного обучения . 24 (238): 1– 25.
  16. ^ Чэнь, Си; Беннетт, Пол Н.; Коллинз-Томпсон, Кевин; Хорвиц, Эрик (4 февраля 2013 г.). «Попарное ранжирование агрегации в краудсорсинговой обстановке». WSDM '13: Труды шестой международной конференции ACM по веб-поиску и интеллектуальному анализу данных : 193–202 . doi :10.1145/2433396.2433420.
  17. ^ Чжан, Сяохан; Ли, Гуолян; Фэн, Цзяньхуа (апрель 2016 г.). «Краудсорсинговые алгоритмы top-k: экспериментальная оценка». Труды VLDB Endowment . 9 (8): 612– 623. doi :10.14778/2921558.2921559.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Bradley–Terry_model&oldid=1273231167"