Однофакторный дисперсионный анализ

Статистический тест

В статистике однофакторный дисперсионный анализ (или однофакторный ANOVA ) — это метод сравнения того, являются ли средние значения двух или более выборок существенно разными (с использованием F -распределения ). Этот метод дисперсионного анализа требует числовой переменной отклика «Y» и одной объясняющей переменной «X», поэтому он «однофакторный». [1]

ANOVA проверяет нулевую гипотезу , которая гласит, что выборки во всех группах взяты из популяций с одинаковыми средними значениями. Для этого делаются две оценки дисперсии популяции. Эти оценки основаны на различных предположениях (см. ниже). ANOVA выдает F-статистику, отношение дисперсии, рассчитанной среди средних значений, к дисперсии внутри выборок. Если групповые средние взяты из популяций с одинаковыми средними значениями, то дисперсия между групповыми средними должна быть ниже дисперсии выборок, следуя центральной предельной теореме . Более высокое отношение, следовательно, подразумевает, что выборки были взяты из популяций с разными средними значениями. [1]

Однако обычно однофакторный дисперсионный анализ используется для проверки различий между по крайней мере тремя группами, поскольку случай с двумя группами может быть охвачен t-тестом (Госсет, 1908). Когда есть только два средних значения для сравнения, t-тест и F-тест эквивалентны; связь между ANOVA и t задается как F  =  t 2 . Расширением однофакторного дисперсионного анализа является двухфакторный дисперсионный анализ , который исследует влияние двух различных категориальных независимых переменных на одну зависимую переменную.

Предположения

Результаты однофакторного дисперсионного анализа можно считать надежными, если выполняются следующие предположения:

Если данные порядковые , следует использовать непараметрическую альтернативу этому тесту, например, однофакторный дисперсионный анализ Краскела–Уоллиса . Если известно, что дисперсии не равны, можно использовать обобщение t-теста Уэлча для двух выборок. [2]

Отклонения от нормальности популяции

ANOVA — относительно надежная процедура в отношении нарушений предположения о нормальности. [3]

Однофакторный дисперсионный анализ можно обобщить для факторного и многомерного анализа, а также для анализа ковариации. [ необходимо разъяснение ]

В популярной литературе часто утверждается, что ни один из этих F -тестов не является надежным , когда есть серьезные нарушения предположения о том, что каждая популяция следует нормальному распределению , особенно для малых уровней альфа и несбалансированных макетов. [4] Кроме того, также утверждается, что если базовое предположение о гомоскедастичности нарушается, свойства ошибки I типа ухудшаются гораздо сильнее. [5]

Однако это заблуждение, основанное на работах, выполненных в 1950-х годах и ранее. Первое всестороннее исследование проблемы с помощью моделирования Монте-Карло было проведено Дональдсоном (1966). [6] Он показал, что при обычных отклонениях (положительный перекос, неравные дисперсии) « F -тест консервативен», и поэтому вероятность того, что переменная значима, меньше, чем следовало бы. Однако по мере увеличения размера выборки или числа ячеек «кривые мощности, по-видимому, сходятся к кривым, основанным на нормальном распределении». Тику (1971) обнаружил, что «ненормальная теоретическая мощность F отличается от нормальной теоретической мощности на поправочный член, который резко уменьшается с увеличением размера выборки». [7] Проблема ненормальности, особенно в больших выборках, гораздо менее серьезна, чем предполагают популярные статьи.

Текущая точка зрения заключается в том, что «исследования Монте-Карло широко использовались с тестами на основе нормального распределения для определения их чувствительности к нарушениям предположения о нормальном распределении анализируемых переменных в популяции. Общий вывод из этих исследований заключается в том, что последствия таких нарушений менее серьезны, чем считалось ранее. Хотя эти выводы не должны полностью отговаривать кого-либо от беспокойства о предположении о нормальности, они увеличили общую популярность статистических тестов, зависящих от распределения, во всех областях исследований». [8]

Для непараметрических альтернатив в факторной компоновке см. Sawilowsky. [9] Для более подробного обсуждения см. ANOVA по рангам .

Случай фиксированных эффектов, полностью рандомизированный эксперимент, несбалансированные данные

Модель

Нормальная линейная модель описывает группы лечения с вероятностными распределениями, которые являются идентично колоколообразными (нормальными) кривыми с разными средними. Таким образом, для подгонки моделей требуются только средние значения каждой группы лечения и расчет дисперсии (используется средняя дисперсия в группах лечения). Расчеты средних значений и дисперсии выполняются как часть проверки гипотезы.

Обычно используемые нормальные линейные модели для полностью рандомизированного эксперимента: [10]

у я , дж = μ дж + ε я , дж {\displaystyle y_{i,j}=\mu _{j}+\varepsilon _{i,j}} (модель средств)

или

у я , дж = μ + τ дж + ε я , дж {\displaystyle y_{i,j}=\mu +\tau _{j}+\varepsilon _{i,j}} (модель эффектов)

где

я = 1 , , я {\displaystyle i=1,\dotsc ,I} это индекс по экспериментальным единицам
дж = 1 , , Дж. {\displaystyle j=1,\dotsc ,J} это индекс по группам лечения
я дж {\displaystyle I_{j}} количество экспериментальных единиц в j-й группе лечения
я = дж я дж {\displaystyle I=\sum _{j}I_{j}} общее количество экспериментальных единиц
у я , дж {\displaystyle y_{i,j}} являются наблюдениями
μ дж {\displaystyle \mu _{j}} это среднее значение наблюдений для j-й группы лечения
μ {\displaystyle \мю} это общее среднее значение наблюдений
τ дж {\displaystyle \tau _{j}} j-й эффект обработки, отклонение от общего среднего
τ дж = 0 {\displaystyle \сумма \тау _{j}=0}
μ дж = μ + τ дж {\displaystyle \mu _{j} = \mu +\tau _{j}}
ε Н ( 0 , σ 2 ) {\displaystyle \varepsilon \thicksim N(0,\sigma ^{2})} , являются нормально распределенными случайными ошибками с нулевым средним. ε я , дж {\displaystyle \varepsilon _ {i,j}}

Индекс экспериментальных единиц может быть интерпретирован несколькими способами. В некоторых экспериментах одна и та же экспериментальная единица подвергается ряду обработок; может указывать на определенную единицу. В других случаях каждая группа обработки имеет отдельный набор экспериментальных единиц; может быть просто индексом в -ом списке. я {\displaystyle я} я {\displaystyle я} я {\displaystyle я} дж {\displaystyle j}

Данные и статистические сводки данных

Одной из форм организации экспериментальных наблюдений является группировка по столбцам: у я дж {\displaystyle y_{ij}}

Организация данных ANOVA, несбалансированный, однофакторный
Списки групповых наблюдений
я 1 {\displaystyle I_{1}} я 2 {\displaystyle I_{2}} я 3 {\displaystyle I_{3}} {\displaystyle \точка} я дж {\displaystyle I_{j}}
1 у 11 {\displaystyle y_{11}} у 12 {\displaystyle y_{12}} у 13 {\displaystyle y_{13}} у 1 дж {\displaystyle y_{1j}}
2 у 21 {\displaystyle y_{21}} у 22 {\displaystyle y_{22}} у 23 {\displaystyle y_{23}} у 2 дж {\displaystyle y_{2j}}
3 у 31 {\displaystyle y_{31}} у 32 {\displaystyle y_{32}} у 33 {\displaystyle y_{33}} у 3 дж {\displaystyle y_{3j}}
{\displaystyle \vdots} {\displaystyle \vdots}
я {\displaystyle я} у я 1 {\displaystyle y_{i1}} у я 2 {\displaystyle y_{i2}} у я 3 {\displaystyle y_{i3}} {\displaystyle \точка} у я дж {\displaystyle y_{ij}}
Сводная статистика группыОбщая сводная статистика
# Наблюдаемый я 1 {\displaystyle I_{1}} я 2 {\displaystyle I_{2}} {\displaystyle \точка} я дж {\displaystyle I_{j}} {\displaystyle \точка} я Дж. {\displaystyle I_{J}} # Наблюдаемый я = я дж {\displaystyle I=\sum I_{j}}
Сумма я у я дж {\displaystyle \sum _{i}y_{ij}} Сумма дж я у я дж {\displaystyle \sum _{j}\sum _{i}y_{ij}}
Сумма кв. я ( у я дж ) 2 {\displaystyle \sum _{i}(y_{ij})^{2}} Сумма кв. дж я ( у я дж ) 2 {\displaystyle \sum _{j}\sum _{i}(y_{ij})^{2}}
Иметь в виду м 1 {\displaystyle m_{1}} {\displaystyle \точка} м дж {\displaystyle m_{j}} {\displaystyle \точка} м Дж. {\displaystyle m_{J}} Иметь в виду м {\displaystyle м}
Дисперсия с 1 2 {\displaystyle s_{1}^{2}} {\displaystyle \точка} с дж 2 {\displaystyle s_{j}^{2}} {\displaystyle \точка} с Дж. 2 {\displaystyle s_{J}^{2}} Дисперсия с 2 {\displaystyle s^{2}}

Сравнение модели с резюме: и . Общее среднее и общая дисперсия вычисляются из общих сумм, а не из групповых средних и дисперсий. μ = м {\displaystyle \мю =м} μ дж = м дж {\displaystyle \mu _{j}=m_{j}}

Проверка гипотезы

Учитывая сводную статистику, расчеты проверки гипотезы показаны в табличной форме. В то время как два столбца SS показаны для их пояснительной ценности, для отображения результатов требуется только один столбец.

Таблица ANOVA для фиксированной модели, однофакторный, полностью рандомизированный эксперимент
Источник вариацииСуммы квадратовСуммы квадратовСтепени свободыСредний квадратФ
Пояснительная СС [11]Вычислительная СС [12]ДФРС
Процедуры Т г е а т м е н т с я дж ( м дж м ) 2 {\displaystyle \sum _{Лечение}I_{j}(m_{j}-m)^{2}} дж ( я у я дж ) 2 я дж ( дж я у я дж ) 2 я {\displaystyle \sum _{j}{\frac {(\sum _{i}y_{ij})^{2}}{I_{j}}}-{\frac {(\sum _{j}\sum _{i}y_{ij})^{2}}{I}}} Дж. 1 {\displaystyle J-1} С С Т г е а т м е н т Д Ф Т г е а т м е н т {\displaystyle {\frac {SS_{Лечение}}{DF_{Лечение}}}} М С Т г е а т м е н т М С Э г г о г {\displaystyle {\frac {MS_{Лечение}}{MS_{Ошибка}}}}
Ошибка Т г е а т м е н т с ( я дж 1 ) с дж 2 {\displaystyle \sum _{Лечение}(I_{j}-1)s_{j}^{2}} дж я у я дж 2 дж ( я у я дж ) 2 я дж {\displaystyle \sum _{j}\sum _{i}y_{ij}^{2}-\sum _{j}{\frac {(\sum _{i}y_{ij})^{2}}{I_{j}}}} я Дж. {\displaystyle IJ} С С Э г г о г Д Ф Э г г о г {\displaystyle {\frac {SS_{Ошибка}}{DF_{Ошибка}}}}
Общий О б с е г в а т я о н с ( у я дж м ) 2 {\displaystyle \sum _{Observations}(y_{ij}-m)^{2}} j i y i j 2 ( j i y i j ) 2 I {\displaystyle \sum _{j}\sum _{i}y_{ij}^{2}-{\frac {(\sum _{j}\sum _{i}y_{ij})^{2}}{I}}} I 1 {\displaystyle I-1}

M S E r r o r {\displaystyle MS_{Error}} — оценка дисперсии, соответствующая модели. σ 2 {\displaystyle \sigma ^{2}}

Резюме анализа

Основной анализ ANOVA состоит из серии расчетов. Данные собираются в табличной форме. Затем

  • Каждая группа обработки суммируется по числу экспериментальных единиц, двум суммам, среднему значению и дисперсии. Сводки по группам обработки объединяются для получения итогов по числу единиц и сумм. Общее среднее значение и общая дисперсия вычисляются из общих сумм. Обработка и общее среднее значение используются в модели.
  • Из сводок рассчитываются три DF и SS. Затем рассчитываются MS и соотношение определяет F.
  • Компьютер обычно определяет p-значение из F, которое определяет, дают ли обработки существенно разные результаты. Если результат значителен, то модель предварительно имеет силу.

Если эксперимент сбалансирован, все члены равны, поэтому уравнения СС упрощаются. I j {\displaystyle I_{j}}

В более сложном эксперименте, где экспериментальные единицы (или эффекты окружающей среды) не являются однородными, в анализе также используется статистика строк. Модель включает члены, зависящие от . Определение дополнительных членов уменьшает количество доступных степеней свободы. i {\displaystyle i}

Пример

Рассмотрим эксперимент по изучению влияния трех различных уровней фактора на реакцию (например, трех уровней удобрения на рост растений). Если бы у нас было 6 наблюдений для каждого уровня, мы могли бы записать результат эксперимента в таблице, например, где a 1 , a 2 и a 3 — это три уровня изучаемого фактора.

а 1а 2а 3
6813
8129
4911
5118
367
4812

Нулевая гипотеза, обозначенная H 0 , для общего F -теста для этого эксперимента будет заключаться в том, что все три уровня фактора в среднем дают один и тот же ответ. Для расчета F -коэффициента:

Шаг 1: Рассчитайте среднее значение в каждой группе:

Y ¯ 1 = 1 6 Y 1 i = 6 + 8 + 4 + 5 + 3 + 4 6 = 5 Y ¯ 2 = 1 6 Y 2 i = 8 + 12 + 9 + 11 + 6 + 8 6 = 9 Y ¯ 3 = 1 6 Y 3 i = 13 + 9 + 11 + 8 + 7 + 12 6 = 10 {\displaystyle {\begin{aligned}{\overline {Y}}_{1}&={\frac {1}{6}}\sum Y_{1i}={\frac {6+8+4+5+3+4}{6}}=5\\{\overline {Y}}_{2}&={\frac {1}{6}}\sum Y_{2i}={\frac {8+12+9+11+6+8}{6}}=9\\{\overline {Y}}_{3}&={\frac {1}{6}}\sum Y_{3i}={\frac {13+9+11+8+7+12}{6}}=10\end{aligned}}}

Шаг 2: Рассчитайте общее среднее значение:

Y ¯ = i Y ¯ i a = Y ¯ 1 + Y ¯ 2 + Y ¯ 3 a = 5 + 9 + 10 3 = 8 {\displaystyle {\overline {Y}}={\frac {\sum _{i}{\overline {Y}}_{i}}{a}}={\frac {{\overline {Y}}_{1}+{\overline {Y}}_{2}+{\overline {Y}}_{3}}{a}}={\frac {5+9+10}{3}}=8}
где а — количество групп.

Шаг 3: Рассчитайте «межгрупповую» сумму квадратов разностей:

S B = n ( Y ¯ 1 Y ¯ ) 2 + n ( Y ¯ 2 Y ¯ ) 2 + n ( Y ¯ 3 Y ¯ ) 2 = 6 ( 5 8 ) 2 + 6 ( 9 8 ) 2 + 6 ( 10 8 ) 2 = 84 {\displaystyle {\begin{aligned}S_{B}&=n({\overline {Y}}_{1}-{\overline {Y}})^{2}+n({\overline {Y}}_{2}-{\overline {Y}})^{2}+n({\overline {Y}}_{3}-{\overline {Y}})^{2}\\[8pt]&=6(5-8)^{2}+6(9-8)^{2}+6(10-8)^{2}=84\end{aligned}}}

где n — количество значений данных в группе.

Межгрупповое число степеней свободы на единицу меньше числа групп.

f b = 3 1 = 2 {\displaystyle f_{b}=3-1=2}

поэтому среднеквадратичное значение между группами равно

M S B = 84 / 2 = 42 {\displaystyle MS_{B}=84/2=42}

Шаг 4: Рассчитайте "внутригрупповую" сумму квадратов. Начните с центрирования данных в каждой группе

а 1а 2а 3
6−5=18−9=−113−10=3
8−5=312−9=39−10=−1
4−5=−19−9=011−10=1
5−5=011−9=28−10=−2
3−5=−26−9=−37−10=−3
4−5=−18−9=−112−10=2

Внутригрупповая сумма квадратов — это сумма квадратов всех 18 значений в этой таблице.

S W = ( 1 ) 2 + ( 3 ) 2 + ( 1 ) 2 + ( 0 ) 2 + ( 2 ) 2 + ( 1 ) 2 + ( 1 ) 2 + ( 3 ) 2 + ( 0 ) 2 + ( 2 ) 2 + ( 3 ) 2 + ( 1 ) 2 + ( 3 ) 2 + ( 1 ) 2 + ( 1 ) 2 + ( 2 ) 2 + ( 3 ) 2 + ( 2 ) 2 =   1 + 9 + 1 + 0 + 4 + 1 + 1 + 9 + 0 + 4 + 9 + 1 + 9 + 1 + 1 + 4 + 9 + 4 =   68 {\displaystyle {\begin{aligned}S_{W}=&(1)^{2}+(3)^{2}+(-1)^{2}+(0)^{2}+(-2)^{2}+(-1)^{2}+\\&(-1)^{2}+(3)^{2}+(0)^{2}+(2)^{2}+(-3)^{2}+(-1)^{2}+\\&(3)^{2}+(-1)^{2}+(1)^{2}+(-2)^{2}+(-3)^{2}+(2)^{2}\\=&\ 1+9+1+0+4+1+1+9+0+4+9+1+9+1+1+4+9+4\\=&\ 68\\\end{aligned}}}

Внутригрупповые степени свободы:

f W = a ( n 1 ) = 3 ( 6 1 ) = 15 {\displaystyle f_{W}=a(n-1)=3(6-1)=15}

Таким образом, внутригрупповое среднеквадратичное значение равно

M S W = S W / f W = 68 / 15 4.5 {\displaystyle MS_{W}=S_{W}/f_{W}=68/15\approx 4.5}

Шаг 5: Коэффициент F равен

F = M S B M S W 42 / 4.5 9.3 {\displaystyle F={\frac {MS_{B}}{MS_{W}}}\approx 42/4.5\approx 9.3}

Критическое значение — это число, которое должна превысить статистика теста, чтобы отвергнуть тест. В этом случае F крит (2,15) = 3,68 при α = 0,05. Поскольку F =9,3 > 3,68, результаты значимы на уровне значимости 5%. Можно было бы не принимать нулевую гипотезу, делая вывод о том, что имеются веские доказательства того, что ожидаемые значения в трех группах различаются. Значение p для этого теста равно 0,002.

После выполнения F -теста обычно проводят некоторый "post-hoc" анализ средних значений группы. В этом случае средние значения первых двух групп различаются на 4 единицы, средние значения первой и третьей групп различаются на 5 единиц, а средние значения второй и третьей групп различаются всего на 1 единицу. Стандартная ошибка каждого из этих различий составляет . Таким образом, первая группа сильно отличается от других групп, так как средняя разница более чем в 3 раза превышает стандартную ошибку, поэтому мы можем быть уверены в том, что среднее значение совокупности первой группы отличается от средних значений совокупности других групп. Однако нет никаких доказательств того, что средние значения совокупности второй и третьей групп различаются друг от друга, так как их средняя разница в одну единицу сопоставима со стандартной ошибкой. 4.5 / 6 + 4.5 / 6 = 1.2 {\displaystyle {\sqrt {4.5/6+4.5/6}}=1.2}

Примечание. F ( xy ) обозначает кумулятивную функцию распределения F -распределения с x степенями свободы в числителе и y степенями свободы в знаменателе.

Смотрите также

Примечания

  1. ^ ab Howell, David (2002). Статистические методы в психологии. Duxbury. стр. 324–325. ISBN 0-534-37770-X.
  2. ^ Уэлч, Б. Л. (1951). «О сравнении нескольких средних значений: альтернативный подход». Biometrika . 38 (3/4): 330–336 . doi :10.2307/2332579. JSTOR  2332579.
  3. ^ Кирк, Р. Э. (1995). Экспериментальный дизайн: процедуры для поведенческих наук (3-е изд.). Пасифик-Гроув, Калифорния, США: Brooks/Cole.
  4. ^ Блэр, RC (1981). «Реакция на «Последствия невыполнения предположений, лежащих в основе дисперсионного и ковариационного анализа с фиксированными эффектами».". Обзор исследований в области образования . 51 (4): 499– 507. doi :10.3102/00346543051004499.
  5. ^ Рэндольф, EA; Барчиковски, RS (1989). "Частота ошибок типа I при использовании реальных значений исследования в качестве параметров популяции в исследовании Монте-Карло". Доклад, представленный на 11-м ежегодном собрании Ассоциации исследований в области образования Среднего Запада, Чикаго .
  6. ^ Дональдсон, Теодор С. (1966). «Мощность F-теста для ненормальных распределений и неравных дисперсий ошибок». Документ, подготовленный для проекта ВВС США RAND .
  7. ^ Тику, М. Л. (1971). «Функция мощности F -теста в ненормальных ситуациях». Журнал Американской статистической ассоциации . 66 (336): 913– 916. doi :10.1080/01621459.1971.10482371.
  8. ^ "Начало работы с концепциями статистики". Архивировано из оригинала 2018-12-04 . Получено 2016-09-22 .
  9. ^ Sawilowsky, S. (1990). «Непараметрические тесты взаимодействия в экспериментальном дизайне». Review of Educational Research . 60 (1): 91– 126. doi :10.3102/00346543060001091.
  10. ^ Монтгомери, Дуглас С. (2001). Планирование и анализ экспериментов (5-е изд.). Нью-Йорк: Wiley. стр. Раздел 3–2. ISBN 9780471316497.
  11. ^ Мур, Дэвид С.; МакКейб, Джордж П. (2003). Введение в практику статистики (4-е изд.). WH Freeman & Co. стр. 764. ISBN 0716796570.
  12. ^ Винклер, Роберт Л.; Хейс, Уильям Л. (1975). Статистика: вероятность, вывод и решение (2-е изд.). Нью-Йорк: Холт, Райнхарт и Уинстон. стр. 761.

Дальнейшее чтение

Retrieved from "https://en.wikipedia.org/w/index.php?title=One-way_analysis_of_variance&oldid=1207287507"