Ответ 1
Тесты нормальности не делают то, что большинство думают, что они делают. Тест Шапиро, Андерсон Дарлинг и другие - гипотезы нулевой гипотезы ПРОТИВ предположения о нормальности. Они не должны использоваться, чтобы определить, следует ли использовать обычные статистические процедуры теории. Фактически они практически не имеют ценности для аналитика данных. В каких условиях мы заинтересованы в отказе от нулевой гипотезы о том, что данные обычно распределяются? Я никогда не сталкивался с ситуацией, когда нормальный тест - это правильная вещь. Когда размер выборки мал, даже большие отклонения от нормальности не обнаруживаются, и когда размер выборки велик, даже наименьшее отклонение от нормальности приведет к отклоненному нулю.
Например:
> set.seed(100)
> x <- rbinom(15,5,.6)
> shapiro.test(x)
Shapiro-Wilk normality test
data: x
W = 0.8816, p-value = 0.0502
> x <- rlnorm(20,0,.4)
> shapiro.test(x)
Shapiro-Wilk normality test
data: x
W = 0.9405, p-value = 0.2453
Итак, в обоих случаях (биномиальный и логарифмический вариации) p-значение составляет > 0,05, что приводит к отказу от null (что данные нормальны). Означает ли это, что мы должны сделать вывод, что данные нормальные? (подсказка: ответ - нет). Отказ отклонить - это не то же самое, что принимать. Это проверка гипотезы 101.
Но как насчет больших размеров выборки? Возьмем случай, когда распределение очень почти нормальное.
> library(nortest)
> x <- rt(500000,200)
> ad.test(x)
Anderson-Darling normality test
data: x
A = 1.1003, p-value = 0.006975
> qqnorm(x)
Здесь мы используем t-распределение с 200 степенями свободы. Qq-график показывает, что распределение ближе к нормальному, чем любое распределение, которое вы, вероятно, увидите в реальном мире, но тест отвергает нормальность с очень высокой степенью уверенности.
Значит ли значительный тест против нормальности означает, что в этом случае мы не должны использовать статистику нормальной теории? (другой намек: ответ нет:))