Параметрические и непараметрические критерии: различия, особенности применения (ограничения).
Соотношение эмпирического и критического значений критерия является основанием для подтверждения или спростовування гипотезы. Например, в случае применения г-критерия. Стьюдента, если г ем» г кр, то значение статистики относятся критической области и нулевая гипотезаН0 отклоняется (принимается альтернативная гипотеза. Нет). Правила принятия статистического решения оговариваются для каждого критерия
Параметрические и непараметрические критерии
Согласно статистических гипотез статистические критерии делятся на параметрические и непараметрические
. Параметрические критерии используются в задачах проверки параметрических гипотез и включают в свой расчет показатели распределения, например, средние, дисперсии и т.д.. Это такие известные классические критерии, как г-критерий, г-к критерий. Стьюдента, ^-критерий. Фишера и др.. . Непараметрические критерии проверки гипотез основаны на операциях с другими данными, в частности, частотами, рангами и т.п.. Это. А-критерий. Колмогорова-Смирнова, [/-критерий. Вилкок-сона-Манна-Уитни и многие другие
Параметрические критерии позволяют прямо оценить уровень основных параметров генеральных совокупностей, разности средних и различия в дисперсиях. Критерии способны выявить тенденции изменения признака при переходе от условия к ум языка, оценить взаимодействие двух и более факторов в воздействии на изменения признака. . Параметрические критерии считаются несколько более мощными, чем не-параметрические, при условии, что признак измеренная с интервальной шкале и нормально распределенная. Однако с интервальной шкале могут возникнуть определенные проблемы и, если данные, представлены не в стандартизированных оценках. К тому же проверка распределения»на нормальность»требует достаточно сложных расчетов, результат которых заранее неизвестен. Чаще распределения признаков отличаются от нормального, тогда приходится обращаться к непараметрических критерииних критеріїв.
. Непараметрические критерии лишены вышеперечисленных ограничений. Однако они не позволяют осуществить прямую оценку уровня таких важных параметров, как среднее или дисперсия, с их помощью невозможно оценить взаимодействий действие двух и более условий или факторов, влияющих на изменение признаки. Непараметрические критерии позволяют решить некоторые важные задачи, которые сопровождают исследования в психологии и педагогике: выявление различий в уровне исследуемого признака, оценка сдвига значений исследуемого признака, выявление различий в распределениях ознаак.
Применение критериев для принятия (отклонения) статистических гипотез всегда осуществляются с доверительной вероятностью, иначе говоря, на определенном уровне значимости
Критерии выявления различий в уровне исследуемого признака: критерии Розенбаума, Манна-Уитни. Ограничения в применении
Назначение критерия
Критерий используется для оценки различий между двумя выборками по уровню какого-либо признака, количественно измеренного. В каждой из выборок должно быть не менее 11 испытуемых.
Описание критерия
Это очень простой непараметрический критерий, который позволяет быстро оценить различия между двумя выборками по какому-либо признаку. Однако если критерий Q не выявляет достоверных различий, это еще не означает, что их действительно нет.
В этом случае стоит применить критерий φ* Фишера. Если же Q-критерий выявляет достоверные различия между выборками с уровнем значимости р
Непараметрические критерии.
Впервые непараметрические критерии применили в 30-х годах ХХ века. В последние 40-50 лет непараметрическая статистика быстро развивалась и находила все большее широкое применение в медицинских и биологических исследованиях. Они отличаются простотой проведения, для них не требуется вычислять какие-либо параметры распределения (средние значения, стандартные отклонения и др.).
Определение: Критерии различия называют непараметрическими, если он не базируется на предположении о типе распределения генеральной совокупности и не использует параметры этой совокупности.
Достоинства непараметрических методов (критериев) заключаются в том, что они не требуют знания характера распределения, могут применяться при любых распределениях, могут быть использованы при любом, даже небольшом числе наблюдений, применимы для признаков, имеющих количественное выражение, и признаков полуколичественного характера (например, степень тяжести и заболевания, результаты лечения и др.), относительно просты и не требуют проведения сложных расчетов, соответственно, экономят время при вычислении. Кроме того, непараметрические критерии обладают достаточной мощностью (чувствительностью).
Но это не означает, что повсеместно необходимо применять непраметрические методы анализа. Так как при нормальном распределении признака параметрические критерии обладают большей мощностью. При больших отличиях изучаемого распределения от нормального следует использовать непараметрические критерии.
Особого внимания заслуживает вопрос о мощности (чувствительности) критериев. Каждый из изучаемых критериев имеет характерную для себя мощность. Оценку значимости различий необходимо начинать с наименее мощного критерия. Если этот критерий опровергает нулевую гипотезу, то на этом анализ заканчивается. Если же нулевая гипотеза этим критерием не опровергается, то следует проверить изучаемую гипотезу более мощным критерием. Однако если значение характеристики, вычисленной для менее мощного критерия, оказалось очень далеким от критического значения, то мало надежды, что более мощный критерий опровергнет нулевую гипотезу.
Применение непараметрических методов статистического анализа целесообразно в следующих случаях:
— на этапе разведочного анализа;
— при малом числе наблюдений (до 30);
— когда нет уверенности в соответствии данных закону нормального распределения.
Как правило, любой из параметрических критериев имеет аналог в непараметрической статистике.
Непараметрические критерии представлены следующими основными группами:
Что значит непараметрический критерий
Во многих случаях требуется решить, справедливо ли некоторое суждение. Например, верно ли, что два набора данных исходят из одного и того же источника? Что А – лучший работник, чем В? Что от дома до работы быстрее дойти пешком, а не доехать на автобусе и т. д. Если мы считаем, что исходные данные для таких суждений в той или иной мере носят случайный характер, то и ответы можно дать лишь с определенной степенью уверенности, и имеется некоторая вероятность ошибиться. Поэтому при ответе на подобные вопросы хотелось бы не только уметь принимать наиболее обоснованные решения, но и оценивать вероятность ошибочности принятого решения.
Рассмотрение таких задач в строгой математической постановке приводит к понятию статистической гипотезы. В этой главе рассматриваются вопросы о том, что такое статистические гипотезы и какие существуют способы их проверки.
Весь статистический анализ основан на идее случайного выбора. Мы понимаем, что имеющиеся данные появились как результат случайного выбора из некоторой генеральной совокупности, нередко – воображаемой. Обычно мы полагаем, что этот случайный выбор произведен природой. Впрочем, во многих задачах эта генеральная совокупность вполне реальна, и выбор из нее произведен исследователем.
Поскольку мы приняли вероятностную точку зрения на происхождение наших данных (т. е. считаем, что они получены путем случайного выбора), то все дальнейшие суждения, основанные на этих данных, будут иметь вероятностный характер. Всякое утверждение будет верным лишь с некоторой вероятностью. И с некоторой вероятностью оно может оказаться неверным.
Какую вероятность следует считать малой? На этот вопрос нельзя дать количественного ответа, пригодного во всех случаях. Ответ зависит от того, какой опасностью грозит нам ошибка. При проверке статистических гипотез, например, полагают малыми вероятности, начиная с 0,05–0,01.
Термин «гипотеза» означает предположение, которое не только вызывает сомнения, но и которое мы собираемся в данный момент проверить.
Нулевая гипотеза H0 – это гипотеза об отсутствии различий. Это то, что мы хотим опровергнуть, если перед нами стоит задача доказать значимость различий
Она содержит число 0: x1-x2=0, где x1 и x2 – сопоставляемые значения признаков.
Альтернативная гипотеза H1– это гипотеза о значимости различий. Это то, что мы хотим доказать, поэтому иногда её называют экспериментальной гипотезой
Бывают задачи, когда мы хотим доказать незначимость различий, т. е. подтвердить нулевую гипотезу. Однако чаще требуется доказать значимость различий, ибо они более информативны в поиске нового.
Проверка гипотез осуществляется с помощью критериев статистической оценки различий.
Если гипотезу можно проверить непосредственно, не возникает никаких проблем. Но если прямого способа проверки нет, приходится прибегать к проверкам косвенным. Это значит, что приходится довольствоваться проверкой некоторых следствий, которые логически вытекают из гипотезы. Если некоторое явление логически неизбежно следует гипотезы, но в природе не наблюдается, то это значит, что гипотеза неверна. С другой стороны, если происходит то, что при гипотезе происходить не должно, это тоже означает ложность гипотезы. Заметим, что подтверждение следствия ещё не означает справедливости гипотезы, поскольку правильное заключение может вытекать и из неверной предпосылки.
Статистический критерий – это правило, по которому принимается решение о приня-тии истинной и отклонении ложной гипотезы с высокой вероятностью. Критерии делятся на параметрические и непараметрические.
Параметрические критерии – это критерии, включающие в формулу расчёта параметры распределения, т. е. средние и дисперсии (t-критерий Стьюдента, критерий F и др.).
Непараметрические критерии – это критерии, не включающие в формулу расчёта параметров распределения и основанные на оперировании частотами или рангами (Q-критерий Розенбаума, критерий Уилкоксона и др.).
При нормальном распределении признака параметрические критерии обладают большей мощностью, чем непараметрические критерии. Они способны отвергать нулевую гипотезу, если она неверна. Поэтому во всех случаях, когда сравниваемые выборки взяты из нормально распределяющихся совокупностей, следует отдавать предпочтение параметрическим критериям.
В случае очень больших отличий распределений признака от нормального вида следует применять непараметрические критерии, которые в этой ситуации оказываются часто более мощными. В ситуациях, когда варьирующие признаки выражаются не в численной форме, применение непараметрических критериев оказывается единственно возможным.
Проверка гипотез с помощью критериев
Схема проверки гипотез с помощью статистических критериев состоит из следующих трёх шагов.
1. Вычисляется эмпирическое (или фактическое, реальное) значение критерия Fэмп. Вычисляется число степеней свободы и уровень значимости.
2. По таблицам критических значений для выбранного критерия находится так называемая критическая точка (или критическое значение) Fкр.
3. По соотношению эмпирического и критического значений критерия судят о том, подтверждается или опровергается нулевая гипотеза. Например, если Fэмп > Fкр, гипотеза H0 отвергается.
Критические значения критерия берутся из статистических таблиц
В большинстве случаев для того, чтобы различия признавались значимыми, необходимо, чтобы эмпирическое значение критерия превышало критическое, хотя есть критерии (например, Манна-Уитни или критерий знаков), а которых нужно придерживаться противоположного правила.
Число степеней свободы равно числу классов вариационного ряда минус число условий, при которых он был сформирован. К числу таких условий относятся объём выборки, средние и дисперсии.
Уровень значимости – это вероятность отклонения нулевой гипотезы, в то время как она верна
Обычно при проверке статистических гипотез принимают три уровня значимости: 5 %-й (вероятность ошибочной оценки р=0,05), 1 %-й (р=0,01) и 0,1 %-й (р=0,001). В промышленной статистике часто считают достаточным 5 %-й уровень значимости. При этом нулевую гипотезу не отвергают, если в результате исследования окажется, что вероятность ошибочности оценки относительно правильности принятой гипотезы превышает 5 %, т.е. р>0,05. Если же р Ошибки при принятии гипотез
Ошибка, состоящая в том, что правильная гипотеза отклонена, в то время как она верна, называется ошибкой I рода Ошибка, состоящая в том, что правильная гипотеза принята, в то время как она неверна, называется ошибкой II рода
Последствия этих ошибок могут сильно различаться по их значимости. Рассмотрим это на следующем простом примере. Пусть, например, проверяется партия медикаментов сильного действия на соответствие требованиям и действительно правильное решение о том, что партия требованиям соответствует, ошибочно отвергается (ошибка первого рода). В этом случае последствием будет только материальный ущерб предприятию, так как партия бракуется. Если же на самом деле партия требованиям не удовлетворяет, но ошибочно принята (ошибка второго рода), то это повлечет нанесение ущерба здоровью людей и даже возможную их гибель из-за передозировки, поскольку речь идет о сильнодействующем лекарстве.
Таблица
Виды ошибок при проверке статистических гипотез
Результат
проверки гипотезы
Ошибка 2-го рода
(β-ошибка)
Ошибка 1-го рода
(α-ошибка)
При заданной вероятности ошибки первого рода α вероятность ошибки второго рода может быть уменьшена за счёт увеличения объёма выборки.
Двусторонний критерий для среднего значения с нормальным распределением и известной дисперсией
Для проверки гипотез о средних рекомендуется использовать таблицу.
Таблица
Проверка гипотез о средних
Известная
дисперсия нормальной совокупности
Неизвестная дисперсия нормальной совокупности
μ=μo
При t>tn-1((a/2)%)
μ=μo отвергается
При t>tn-1((a/2)%)
μ=μo отвергается
При t>tn-1((a/2)%)
μ=μo отвергается
μ=μo
Принимается >o
при t>tn-1(a%)
μ=μo
Принимается >o
при t>tn-1(a%)
μ=μo
Принимается >o
при t>tn-1(a%)
Рассмотрим следующий пример. Пусть значения диаметров стальных стержней, используемых для изготовления колец подшипников, распределяются по нормальному закону при =0,12 мм. Желательно, чтобы стержни имели диаметр 1,50 мм, причём отклонение от этой величины как в одну, так и в другую сторону нежелательны. Желательно, чтобы отбраковывалось не более 10 % всех партий, для которых среднее значение диаметров стержней равно 1,50 мм. Из очень большой партии делается выборка из 75 стержней. Выборочное среднее равно =1,54 мм. Должна ли партия быть принята?
Односторонний критерий для биномиального распределения доли дефектных изделий
Это значение можно вычислить с помощью вероятностного калькулятора Statistics/ Probability calculator/ Distributions
Проверка гипотез о виде распределения
При проверке гипотез о параметрах генеральной совокупности контролируемого показателя предполагается, что закон распределения известен. Однако на практике это не всегда имеет место. И тогда необходимо определить, какому закону распределения подчиняется исследуемая случайная величина.
В конкретных задачах, как правило, всегда имеется некоторое основание предполагать, что закон распределения имеет определенный вид F (например, нормальный, Рэлея, Пуассона и т.д.). Это предположение может быть сделано, например, на основе построения гистограммы или на основе физического смысла исследуемого показателя.
В этом случае необходимо проверить гипотезу Н0: генеральная совокупность распределена по закону F. Конкурирующей гипотезой будет гипотеза Н1: генеральная совокупность не распределена по закону F.
Для решения этой задачи используют статистические критерии, называемые критериями согласия.
Теория вероятностей позволяет пользоваться несколькими критериями согласия: критерий Пирсона (критерий x2), критерий Колмогорова, Смирнова и др.
Здесь ограничимся только проверкой гипотез с помощью критерия Пирсона. Его достоинство по сравнению с другими критериями состоит в том, что он может быть применен к самым различным законам распределения, тогда как другие критерии применимы только к вполне определенным законам.
Критерий Пирсона выгодно отличается от остальных инвариантностью к закону распределения
13,39 13,33 13,56 13,38 13,43 13,37 13,53 13,40 13,25 13,37
13,28 13,34 13,50 13,38 13,38 13,45 13,47 13,62 13,45 13,39
13,53 13,58 13,32 13,27 13,42 13,40 13,57 13,46 13,33 13,40
13,57 13,36 13,43 13,38 13,26 13,52 13,35 13,29 13,48 13,43
13,40 13,39 13,50 13,52 13,39 13,39 13,46 13,29 13,55 13,31
13,29 13,33 13,38 13,61 13,55 13,40 13,20 13,31 13,46 13,13
13,43 13,51 13,50 13,38 13,44 13,62 13,42 13,54 13,31 13,58
13,41 13,49 13,42 13,45 13,34 13,47 13,48 13,59 13,20 14,56
13,55 13,44 13,50 13,40 13,48 13,29 13,31 13,42 13,32 13,48
13,43 13,26 13,58 13,38 13,48 13,45 13,29 13,32 13,24 13,38
13,34 13,14 13,31 13,51 13,59 13,32 13,52 13,57 13,62 13,29
13,23 13,37 13,64 13,30 13,40 13,58 13,24 13,32 13,52 13,50
13,43 13,58 13,63 13,48 13,34 13,37 13,18 13,50 13,45 13,60
13,38 13,33 13,57 13,28 13,32 13,40 13,40 13,33 13,20 13,44
13,34 13,54 13,40 13,47 13,28 13,41 13,39 13,48 13,42 13,46
13,28 13,46 13,37 13,53 13,43 13,30 13,45 13,40 13,45 13,40
13,33 13,39 13,56 13,46 13,26 13,35 13,42 13,36 13,44 13,41
13,43 13,51 13,51 13,24 13,34 13,28 13,37 13,54 13,43 13,35
13,52 13,23 13,48 13,48 13,54 13,41 13,51 13,44 13,36 13,36
13,53 13,44 13,69 13,66 13,32 13,26 13,51 13,38 13,46 13,34
2. По команде Statistics/ Distribution Fitting в стартовом окне выбираем вид случайной величины – непрерывная (Continuous Distributions, установлена по умолчанию) или дискретная (Discrete Distributions), вид распределения (по умолчанию предлагается нормальное), OK. Кнопкой Variables выбираем переменную.
Понятно, что если требуется проверить соответствие другому закону распределения, надо выбрать его из предложенного списка
3. Во вкладке Parameters того же окна (рис. 10.1) появятся оценки параметров. Число интервалов группировки (Number of categories) можно при необходимости изменить. Нажмите кнопку Summary.
4. На экран выводится таблица для расчёта статистики критерия – распределение случайной величины по интервалам. В таблице частот нужны столбцы Observed Frequency (наблюдаемые частоты) и Expected Frequency (ожидаемые частоты). Сравним графически наблюдаемые и ожидаемые частоты: запишем соответствующие столбцы в таблицу данных и построим график рассеяния (команды Graphs/ Scatterplots/ Variables/ OK). Наблюдаем существенное различие между переменными, так как точки плохо укладываются на прямую линию.
Вверху таблицы выводится значение статистики критерия x2 (Chi-Square), число степеней свободы (df) и вычисленный уровень значимости p-level. Для нашего примера получено:
Variable: Var1, Distribution: Normal
Chi-Square = 11,99951, df = 3 (adjusted), p = 0,0073.
Значение вероятности p=P(?23> 11,999)=0,007 означает, что если гипотеза верна, вероятность получить 12 или больше равна 0,007. Это слишком мало, чтобы поверить в нормальность распределения. Гипотезу о нормальности отклоняем.
Если посмотреть гистограмму наблюдений (рис 10.3), видно, что в выборке имеется одно аномальное значение 14,56 (188-е по счёту), которое могло появиться в результате какой-либо ошибки (при записи наблюдений, при перепечатке или попалась деталь с другого станка и т.д.). Удалим его и снова проверим гипотезу.
Проверка гипотез об однородности выборок
Пусть имеются выборки, извлечённые из различных совокупностей. Требуется проверить гипотезу о том, что исходные совокупности распределены одинаково. В системе Statistica эта гипотеза проверяется в модуле Statistics/ Advanced Linear/Nonlinear models/ Log-Linear Analysis of Frequency Tables.
Пусть, к примеру, имеются данные о наличии примесей (P1–P4) в углеродистой стали, выплавляемой двумя заводами Z1, Z2.
Проверим гипотезу о том, что распределения содержания нежелательной примеси одинаковы на этих заводах.
1. В строке Input file: выбираем Frequencies w/out coding variables (частоты без кодирующих переменных). Кнопкой Variables вводим все переменные (Select all). Кнопкой Specify Table (спецификация таблицы) в ячейках No. of levels: вводим 4 и 2 (рис. 10.5).
2. Дважды нажимаем OK и во вкладке Advanced получившегося окна выполним Test all marginal & partial association models.
3. В таблице Results of Fitting all K-Factor Interactions в последней строке получаем столбца значение статистики критерия x2 (Chi-Square), равное 3,59, число степеней свободы (Degrs. of Freedom) df=3 и уровень значимости 0,30887. Эта величина не больше критической (см. Приложение 2). Следовательно, гипотезу об одинаковом распределении содержания примеси в металле на двух заводах можно принять.
Все решения носят вероятностный характер
Случайность связана с отсутствием полной информации о процессе
Из вероятностного характера данных следует вероятностная природа принимаемых реше-ний
Нулевая гипотеза H0 – это гипотеза об отсутствии различий. Это то, что мы хотим опровергнуть, если перед нами стоит задача доказать значимость различий
Она содержит число 0: x1-x2=0, где x1 и x2 – сопоставляемые значения признаков
Альтернативная гипотеза H1– это гипотеза о значимости различий.
Это то, что мы хотим доказать, поэтому иногда её называют экспериментальной гипотезой
Поэтому косвенным образом доказать гипотезу нельзя, хотя опровергнуть – можно. Отсюда успех адвокатов
Статистический критерий – это правило, по которому принимается решение о принятии истинной и отклонении ложной гипотезы с высокой вероятностью
Ошибка, состоящая в том, что правильная гипотеза отклонена, в то время как она верна, называется ошибкой I рода
Ошибка, состоящая в том, что правильная гипотеза принята, в то время как она неверна, называется ошибкой II рода
Уровень значимости – это вероятность отклонения нулевой гипотезы, в то время как она верна
Последствия ошибок первого и второго рода
Поскольку принятие решения относительно справедливости гипотезы Н0 или Н1 осуществляется на основе статистических данных (выборок), то само решение будет носить вероятностный характер
Проверка данных на соответствие нормальному закону распределения очень важна для данных промышленной статистики
Параметрические критерии основаны на принадлежности данных определённому закону
Критерий Пирсона выгодно отличается от остальных инвариантностью к закону распределения
Понятно, что если требуется проверить соответствие другому закону распределения, надо выбрать его из предложенного списка
Если бы переменные были одинаковы, все наблюдения лежали бы на прямой с уравнением Var2=Var1
Я изъездил эту страну вдоль и поперёк, общался с умнейшими людьми и я могу вам ручаться в том, что обработка данных является лишь причудой, мода на которую продержится не более года
(редактор издательства Prentice Hall, 1957 г.)
Нужно не только принимать научно обоснованные решения, но и оценивать вероятность ошибочности принятого решения
Непараметрические критерии
Общий обзор
Поэтому эти методы иногда также называются свободными от параметров или свободно распределенными.
Непараметрические методы позволяют обрабатывать данные «низкого качества» из выборок малого объема с переменными, про распределение которых мало что или вообще ничего не известно.
По существу, для каждого параметрического критерия имеется, по крайней мере, один непараметрический аналог. Эти критерии можно отнести к одной из следующих групп:
критерии различия между независимыми выборками
критерии различия между зависимыми выборками
критерии зависимости между переменными
Различия между независимыми выборками
Две независимые выборки: U-критерий Манна-Уитни и др.
Обычно, когда имеются две выборки (например, мужчины и женщины), которые вы хотите сравнить относительно среднего значения некоторой изучаемой переменной, вы используете t-критерий для независимых выборок.
Непараметрическими альтернативами параметрического критерия для двух независимых групп являются:
Рассмотрим U критерий Манна-Уитни подробнее:
Критерий Манна-Уитни проверяет гипотезу о статистической однородности двух выборок.
Обозначим закон распределения первой выборки X через F:
а второй выборки Y через G:
Законы F и G должны быть непрерывны.
Таким образом нулевая гипотеза записывается в виде
Если по крайней мере одна из групп имеет размер выборки более 15, то можно показать, что:

где 
Несколько независимых групп: критерий Краскела-Уоллиса и др.
Если вы имеете несколько групп, то можете использовать Дисперсионный анализ (ANOVA).
Его непараметрическими аналогами являются:
Рассмотрим критерий Краскела-Уоллиса подробнее:
Критерий Краскела-Уоллиса является расширением критерия Манна-Уитни и предназначен для сравнения распределений в k выборках.
H1: Распределения каждой из k выборок различны
Критерий Краскела-Уоллиса используется, когда невозможно сказать что-либо определенное об альтернативах , т.к. он свободен от распределения.
Число элементов в каждой i-й выборке ( i=1. k ) равно ni
Как было показано выше, Заменим наблюдения их рангами
, упорядочивая всю совокупность
в порядке возрастания.
Затем для каждой выборки необходимо вычислить суммарный и средний ранги:
Если между выборками нет систематических различий, то средние ранги не должны значительно отличаться от среднего, рассчитанного по всей совокупности
Значение последнего .
Здесь — общее число наблюдений.
Вычислим величины дисперсий для каждой выборки
Эти значения при в совокупности должны быть небольшими. Составляя общую характеристику, разумно учесть различия в числе наблюдений для разных выборок и взять в качестве меры отступления от чистой случайности величину
Эта величина называется статистикой Краскела-Уоллеса.
Множитель присутствует в качестве нормировочного для обеспечения сходимости распределения H и
с числом степеней свободы
.
Согласно стандартному алгоритму проверки гипотез, отвергается на уровне значимости α, если |H| >
кр
Различия между зависимыми выборками
Две зависимые выборки: критерий Вилкоксона и др.
Если вы хотите сравнить две переменные, относящиеся к одной и той же выборке (например, математические успехи студентов в начале и в конце семестра), то обычно используется t-критерий для зависимых выборок.
Альтернативными непараметрическими тестами являются:
Рассмотрим подробнее Критерий Вилкоксона.
Итак, мы располагаем двумя зависимыми выборками. Сформулируем гипотезы:
H0: медиана разницы в популяции равна нулю
H1: медиана разницы в популяции не равна нулю.
Вычислим разности для каждой пары результатов.
Обозначим за n’ число ненулевых разностей.
Проранжируем положительные и отрицательные разности (кроме нулевых), чтобы наименьшая абсолютная величина (без учета знака) получила первый ранг.
Отдельно вычислим сумму рангов положительных и отрицательных разностей, меньшую из двух сумм без учета знака считают тестовой статистикой W данного критерия.
Согласно стандартному алгоритму проверки гипотез, отвергается на уровне значимости α, если |W|>Wкр
Если число ненулевых разностей n’>20, статистика W приближается к стандартному нормальному распределению z:

Несколько зависимых выборок
Если рассматривается более двух переменных, относящихся к одной и той же выборке, то обычно используется Дисперсионный анализ (ANOVA) с повторными измерениями.
Альтернативным непараметрическим методом является
Непараметрические методы наиболее приемлемы, когда объем выборок мал. Если данных много (например, n > 100), то не имеет смысла использовать непараметрические статистики.
Дело в том, что когда выборки становятся очень большими, то выборочные средние подчиняются нормальному закону, даже если исходная переменная не является нормальной или измерена с погрешностью.
Непараметрические тесты имеют меньшую статистическую мощность (менее чувствительны), чем их параметрические конкуренты, и если важно обнаружить даже слабые отклонения, следует особенно внимательно выбирать статистику критерия.











