Меню
Главная
Авторизация/Регистрация
 
Главная arrow Психология arrow Математические методы в психологии

Непараметрический тест Фридмана

Мы уже знаем, что в случае, когда нам требуется сравнить две или более выборки по средним значениям, наряду с параметрическими можно использовать и непараметрические методы. Эти методы оказываются свободными от ряда ограничений параметрических методов, не требуют нормальности распределения данных и равенства дисперсии. Их преимущество особенно ценно в случае, когда зависимая переменная не может быть выражена в метрической шкале.

Для экспериментальных планов с повторными измерениями также существует непараметрический метод, который позволяет обойти допущения параметрической модели дисперсионного анализа, рассмотренной выше. Этот метод назван в честь его разработчика – американского экономиста М. Фридмана.

Как и любой другой непараметрический метод, тест Фридмана предполагает, что анализируемые данные представляют собой результаты ранжирования. Мы уже знаем, что в этом случае применение непараметрического анализа оказывается оптимальным. Если полученные результаты эксперимента не являются ранговыми значениями, они должны быть трансформированы в ранги, что, очевидно, ведет к утрате части информации. Поэтому если зависимая переменная оказывается представленной в метрической шкале, тест Фридмана оказывается менее мощным, чем процедуры дисперсионного анализа с повторными измерениями, и может быть рекомендован только, если вариационно-ковариационная матрица демонстрирует сильную гетерогенность.

Имея результаты ранжирования для каждого испытуемого, рассчитываем значение суммарного квадрата экспериментального воздействия стандартным способом, т.е. по формуле (3.2). Суммарный квадрат для экспериментальной ошибки оценивается как степень вариативности данных внутри испытуемых. Вспомним, что он включает в себя дисперсию, вызванную различием экспериментальных условий, и остаточную дисперсию. Поскольку в результате использования рангов дисперсия между средними и суммарными значениями зависимой переменной всех испытуемых оказывается нулевой – ведь сумма рангов для всех испытуемых будет одинаковой, эта статистика оказывается равной общему суммарному квадрату (формула (3.4)). Число степеней свободы для этой статистики, как указано в табл. 4.2, равно п (k – 1). В результате получаем следующую статистику Q Фридмана:

(4.8)

Если число испытуемых п и число уровней исследуемой независимой переменной k оказываются достаточно большими (п > 15 и k > 4), статистика Q приблизительно описывается распределением χ2 с k – 1 степенями свободы (см. приложение 2). Тогда должны быть использованы специальные таблицы.

Формула (4.8) является универсальной для расчетов статистики Q. Она может быть применена независимо от того, имеются или нет в результатах эксперимента повторяющиеся ранги. Однако в случае, когда результаты эксперимента не содержат дробных рангов, суммарный квадрат для экспериментальной ошибки может быть выражен несколько по-другому, поскольку его значение определяется исключительно на основе числа экспериментальных условий и числа испытуемых:

Тогда формула (4.8) принимает следующий вид:

Для попарного сопоставления различных экспериментальных условий могут быть использованы процедуры, разработанные, например, Шайхом и Хамерли. Однако в стандартных пакетах статистического анализа они, как правило, отсутствуют.

Практические примеры

Изменение показателей степени у в законе Стивенса в зависимости от частоты звуковых сигналов

И. Ю. Мышкин [ 13] провел ряд интересных экспериментальных исследований, направленных на изучение факторов, вызывающих изменение показателя степени в формуле основного психофизического закона. В частности, он искал зависимость показателя степени γ от частоты звукового сигнала. Непосредственно величина γ рассчитывалась как отношение логарифма величины ощущения, выраженной в долях по отношению к максимальной величине оценки, к интенсивности звукового сигнала (выраженной в децибелах). Результаты проведенных измерений представлены в табл. 4.5.

Рассматривая эти данные, автор проведенного исследования отмечает: "С увеличением частоты звуковых стимулов показатель степени уменьшается. Зависимость между частотой звукового сигнала и показателем степени нелинейная". К сожалению, автор [13] не приводит в подтверждение своих выводов каких-либо статистических данных. Попробуем восполнить этот пробел и ответить на вопрос, насколько статистически достоверной является выявленная зависимость.

Таблица 4.5

Индивидуальные значения показателя степени у в законе Стивенса при разной частоте звуковых сигналов (И. Ю. Мышкин [13])

Испытуемый

Частота, Гц

125

500

1000

2000

4000

8000

1

0,37

0,33

0,33

0,38

0,30

0,28

2

0,33

0,33

0,34

0,33

0,29

0,30

3

0,35

0,35

0,33

0,36

0,28

0,28

4

0,36

0,34

0,33

0,35

0,30

0,30

5

0,35

0,31

0,33

0,32

0,29

0,28

6

0,32

0,31

0,33

0,32

0,29

0,27

7

0,36

0,35

0,34

0,35

0,28

0,29

8

0,36

0,33

0,33

0,34

0,29

0,31

9

0,37

0,33

0,34

0,34

0,30

0,30

10

0,38

0,35

0,31

0,34

0,31

0,29

Среднее

0,35

0,33

0,33

0,34

0,29

0,29

Осуществим расчеты вручную, используя настольный калькулятор, или частично вручную, используя какую-нибудь электронную таблицу, например MS Excel. Расчеты будем проводить в соответствии с алгоритмом, представленным в табл. 4.3. В связи с этим необходимо найти четыре элемента формул:

Результаты расчетов оказываются следующими: (1) =6,305; (2) = 6,352; (3) = 6,341; (4) = 6,309. На основе этих вычислений можно рассчитать суммарные квадраты и оценить число степеней свободы для каждого источника дисперсии (табл. 4.6). Теперь для того чтобы оценить статистический эффект частоты сигнала, достаточно разделить значение среднего квадрата для частоты сигнала (0,00713) на значение остаточной дисперсии (0,00016). Оказывается[1], что F(5, 45) = 44,43. Обратившись к статистическим таблицам (см. приложение 4), можно убедиться, что полученный результат оказывается исключительно высоконадежным. Таким образом, вывод автора проведенного исследования об имеющихся различиях в значении степени γ в зависимости от частоты предъявленных звуковых сигналов представляется статистически обоснованным, и его публикация, несомненно, выиграла бы, если бы автор привел результаты проведенного нами статистического анализа.

Таблица 4.6

Расчет суммарных квадратов, числа степеней свободы и средних квадратов для различных источников дисперсии при оценке эффекта частоты сигнала

Источник

дисперсии

Суммарный квадрат (SS)

Степень свободы

(df)

Средний квадрат (MS)

Между испытуемыми

0,004

9

0.00042

Внутри испытуемых

0,043

50

0,00086

Частота сигнала

0,036

5

0,00713

Остаток

0,007

45

0,00016

Общий

0,047

59

0,00079

Оценив в целом эффект частоты сигнала и получив статистическую поддержку мнению автора статьи [13], вернемся к его утверждению о том, что этот эффект оказывается нелинейным. Для исследования этого вопроса разделим суммарный квадрат частоты сигнала на два аддитивных компонента. Один из них будет определять линейный контраст, второй – нелинейный.

Для начала зададим следующие коэффициенты, определяющие линейный контраст: 5; 3; 1; -1; -3; -5. На основе этих коэффициентов можно определить и значение самого линейного контраста Сlin:

Теперь можно оценить средний квадрат, приходящийся на этот контраст:

Разделив полученное значение на дисперсию статистической ошибки (остаточную дисперсию), имеем F(1, 45) = 150,09; р < 0,001, что свидетельствует об исключительно высокозначимом эффекте. Заметим, что суммарный квадрат частоты сигнала оказывается равным 0,036, а его компонента, описывающая линейную зависимость, – 0,024. Таким образом, оказывается, что линейный тренд описывает 2/3 дисперсии, связанной с эффектом независимой переменной, тогда как нелинейный – только треть: 0,036 – 0,024 = 0,012. Тем не менее нелинейный контраст также оказывается статистически значимым – F(4, 45) = 18,75; р < 0,01.

Следует обратить внимание на то, что предположение квадратичной зависимости также обеспечивает надежное статистическое решение: F(l, 45) = 7,44; р < 0,05. Однако если внимательно рассмотреть характер наблюдаемой зависимости, можно отметить, что возможная нелинейность исследуемого эффекта заключается в том, что по мере роста частоты сигнала показатель степени γ вначале понижается, затем растет, а затем снова снижается. Иными словами, можно предполагать w-образную зависимость. Такая зависимость должна быть описана степенью четвертого порядка.

Оказывается, что полиномиальный контраст четвертого порядка, действительно, довольно выражен и его дисперсия достигает значения 0,005. Эта величина оказывается статистически надежной: F(1, 45) = 32,14; р < 0,01. Таким образом, вывод о нелинейности выявленного эффекта также имеет под собой статистические основания.

Следует заметить, что в расчете статистики F при оценке трендов мы использовали в качестве дисперсии статистической ошибки величину остаточной дисперсии, ту же самую, что и при оценке общего эффекта. Тем не менее не лишена основания и другая стратегии принятия статистического решения. В этом случае в качестве величины ошибки рассматривают статистику, в которой к величине остаточной дисперсии добавляют разницу между суммарным квадратом основного экспериментального эффекта и суммой всех его компонент от первого (линейного) до рассматриваемого порядка. Так, для расчета ошибки линейного тренда SSdev lin следует определить следующее соотношение:

Подставляя в это выражение имеющиеся у нас значения, получаем SSdev lin = 0,007 + (0,036 – 0,024) = 0,019. Эта статистика имеет n(k -1)-1 степеней свободы. В нашем случае это число оказывается равным 49. Следовательно, соответствующий этой статистике средний квадрат оказывается равным 0,019/49 = 0,000388. Таким образом, мы можем скорректировать величину F для линейного компонента – F( 1, 59) = 61,93; р < 0,01.

Аналогичным образом скорректируем величину дисперсии ошибки для компонента четвертого порядка SSdev quant:

где quad, cubic, quart означают соответственно полиномы второго, третьего и четвертого порядка.

Получаем

Эта статистика имеет n(k – 1) – 4 степеней свободы. Тогда средний квадрат для этой ошибки будет равным 0,0128/46 = 0,000278. Статистика F несколько уменьшается, но по-прежнему остается статистически высоконадежной – F(1, 46) = 17,97; p < 0,01.

Наконец, вспомним, что оптимальным способом оценки дисперсии экспериментальной ошибки является ее расчет по формуле (4.7). Именно такой способ расчета, как правило, и представляют современные статистические пакеты.

Как видим, два различных способа компонентной оценки дают нам основания сделать два совершенно различных вывода. И хотя вывод о линейной зависимости представляется несколько более статистически обоснованным, нелинейная зависимость четвертого порядка также вполне возможна.

  • [1] Результат вычисления оказывается чуть меньше того, что получается при делении 0,00713 на 0,00016, так как сами эти значения получены с учетом округления.
 
< Предыдущая   СОДЕРЖАНИЕ   Следующая >
 

Популярные страницы