Мегаобучалка Главная | О нас | Обратная связь


Примеры расчетов коэффициентов корреляции





 

6.6.1. Обе переменные измерены в шкале интервалов (отношений). Мера связи – коэффициент корреляции Пирсона.

n X Y xiyi
Суммы
Квадраты Сумм      

,

Вывод: статистическая связь недостоверна, т.к.

 

6.6.2. Обе переменные измерены в шкале порядка. Мера связи – коэффициент корреляции Спирмена.

n Rx Ry
-1
-1
-4
-1
-1
Сумма      

,

Вывод: достоверна положительная статистическая связь т.к.

6.6.3. Обе переменные измерены в шкале наименований. Мера связи – коэффициент ассоциации Пирсона или четырехпольный коэффициент ассоциации Пирсона.

 

6.6.3.1. Расчет коэффицента ассоциации Пирсона

n X Y Совпадения
P 0.6 0.4 0.3
Q 0.4 0.6  

,

Вывод: статистическая связь недостоверна, т.к.

 

6.6.3.2. Расчет четырехпольного коэффициента ассоциации

    Переменная X  
    Да Нет Суммы
Переменная Да
Y Нет
  Суммы

 

В этом примере использованы те же данные, что и в случае с коэффициентом ассоциации, и видно, что оба коэффициента дают одинаковую оценку связи.

 

6.6.4. Одна переменная измерена в шкале наименований, а другая – в шкале порядка. Мера связи – рангово-бисериальный коэффициент корреляции.

Сущность этого коэффициента корреляции заключается в том, что после сведения в одну таблицу результатов эксперимента необходимо отдельно выписать ранги ранжированной переменной имеющие единицу по другой переменной, а также ранги имеющие ноль, и после подсчета средних арифметических этих рангов подставить их в формулу рангово-бисериального коэффициента корреляции.



 

n X Y РангиY1 РангиY0
 
 
 
 
 
 
 
 
 
 
Суммы     7.8 3.2

 

Вывод: здесь можно констатировать значимую отрицательную связь между наличием признака X и порядком проявления признака Y, однако в отличии от других коэффициентов корреляции, рангово-бисериальный имеет неоднозначную интерпретацию. Так в некоторых пособиях приводится другая его формула:

 

 

В таком случае можно констатировать значимую положительную связь между отсутствием признака X и порядком проявления признака Y.

 

6.6.5. Одна переменная измерена в шкале наименований, а другая – в шкале интервалов (или отношений). Мера связи – точечно-бисериальный коэффициент корреляции.

Сущность этого коэффициента корреляции, также как и рангово-бисериального, заключается в том, что после сведения в одну таблицу результатов эксперимента необходимо отдельно выписать значения переменной измеренной по шкале интервалов, имеющие единицу по другой переменной, а также значения имеющие ноль, и после подсчета средних арифметических этих значений подставить их в формулу точечно-бисериального коэффициента корреляции.

Необходимо учитывать, что как и , этот коэффициент корреляции имеет неоднозначную интерпретацию.

n X Y Значения Y1 Значения Y0
 
 
 
 
 
 
 
 
 
 
Суммы     45,6
  6,07    

 

 

Вывод: в данном случае не обнаружено значимой статистической связи между величиной признака Y и наличием признака X, или, наличие признака X не говорит статистически достоверно том, что значения Y окажутся больше.

 

7. СТАТИСТИЧЕКАЯ ПРОВЕРКА ГИПОТЕЗ

 

Научная гипотеза – это обоснованное и развитое содержательное предположение о неочевидных явлениях и событиях. Этими явлениями и событиями могут быть факты и феномены объекта или предмета исследования, связи между исследуемыми переменными, отличие одних объектов от других по каким-либо параметрам и т.д. Научная гипотеза обычно формулируется как теорема и предполагает практическую проверку ее хотя бы в будущем, если в данный момент это неосуществимо. Среди научных гипотез отдельно выделяются статистические гипотезы, но в отличии от большинства научных гипотез, они являются формальным утверждением относительно различий между двумя или несколькими распределениями и предполагают реальную проверку их при помощи существующих методов математической статистики.

7.1. Статистические гипотезы.Статистические гипотезы разделяются на два вида: нулевые и альтернативные. Нулевая гипотеза (H0) утверждает об отсутствии различий между двумя распределениями (различия равны нулю), альтернативная (H1) – о существовании или значимости различий. Нулевая и альтернативная гипотезы являются взаимоисключающими, и в этом плане, одна из них должна будет оказаться истинной, а другая – ложной. Для проверки статистических гипотез служат статистические критерии. Статистические гипотезы могут быть направленные и ненаправленные. Если гипотеза просто утверждает отсутствие или значимость различий, то она является ненаправленной, т.к. в ее формулировку не входит направление различий. Если гипотеза помимо отсутствия или значимости различий утверждает и то, что параметры одного распределения должны оказаться больше или меньше, чем параметры другого, то она является направленной.

7.2. Статистические критерии.Статистический критерий – это решающее правило, обеспечивающее надежное принятие истинной гипотезы и отклонение ложной с высокой вероятностью, а также метод расчета числа, говорящего о значимости различий между распределениями случайной величины и само это число.

Статистические критерии служат тем пробным камнем, на котором проверяются гипотезы научные, и, до тех пор, пока научная гипотеза не пройдет такой проверки, она не может быть признана научным фактом. Статистические критерии, сами по себе, не являются средством решения научных проблем, так как статистические методы не заменяют собой мышления ученого. Результат, полученный при помощи применения статистических критериев всегда носит вероятностный характер, т.к. исследователь в большинстве случаев имеет дело не только со случайной величиной, но и со случайной выборкой, и поэтому, выводы его также обладают определенной степенью достоверности или значимости.

 

7.3. Уровни значимости статистических критериев.Уровень значимости (a) – это вероятность того, что исследователь счел различия существенными, а они на самом деле случайны.

В психологии обычно используется три уровня значимости: 5-процентный, 1-процентный и 0.1- процентный (хотя последний намного реже). Если указывают, что различия достоверны на 5%-ом уровне значимости (p < 0.05), то имеют ввиду, что вероятность ошибочного вывода составляет 0.05, если на 1%-ом – 0.01 (p < 0.05) и т.д. При этом, 5%-й уровень считается низшим, а 0.1%-й – высшим уровнем значимости.

7.4. Число степеней свободы.Степенью свободы называется характеристика распределения, используемая при проверке статистических гипотез (обозначается df или n). Число степеней свободы равно числу классов вариационного ряда минус число условий, при которых он был сформирован.

Предположим, что выборка из 100 человек была разбита на три класса в зависимости от степени выраженности какого-либо признака. В первый класс могут попасть те, у кого признак выражен максимально, во второй те, у кого он выражен в средней степени, но в третий могут попасть только оставшиеся, вне зависимости от того минимально выражен у них признак, или вовсе отсутствует. Можно, конечно, допустить и другое разбиение, но число степеней свободы в данном случае будет равно df = 3-1= 2. Если исследователь имеет дело с классификацией из 100 классов, то df будет равно 99 и т.д. Для двух распределений df = c – 2 (c – число классов), а при представлении переменных в таблице размером a x b, df = (a – 1)(b – 1), где a – число столбцов, а b – число строк.

7.5. Правила принятия и отклонения нулевой и альтернативной гипотез.Поскольку уже говорилось, что статистический критерий – не только метод расчета числа, говорящего о различиях между распределениями, но и само это число, в задачи исследователя входит и правильная интерпретация полученного значения статистического критерия. Для того, чтобы определить, какая из двух гипотез верна, необходимо обратиться к таблицам значимости статистических критериев. В этих таблицах даются критические значения статистического критерия для соответствующего числа степеней свободы и уровня значимости. Например, если применялся t-критерий Стьюдента, а число степеней свободы было равно 20-ти, то необходимо найти значения t-критерия на 5%-ом и 1%-ом уровне значимости (2.09 и 2.85 соответственно). Если полученное эмпирическое значение окажется меньше, либо равняется критическому (табличному) значению на 5%-ом уровне, то необходимо признать верной нулевую гипотезу, если же выше, чем на 1%-ом уровне – альтернативную. В том случае, когда эмпирическое значение оказывается между двух критических, ни нулевую, ни альтернативную гипотезу принять нельзя, необходимо либо увеличить объем выборки, чтобы различия стали достоверны, либо воспользоваться другим критерием. Так обстоит дело с большинством критериев – чем выше число, тем достоверней различия между распределениями, и лишь в отношении некоторых критериев картина обратная (см. описания критериев).

7.6. Мощность критерия и ошибки I и II рода.Мощность критерия (1–b) – это его способность выявлять различия, если они есть, т.е. его способность отклонить нулевую гипотезу об отсутствии различий, если она неверна.

Мощность критерия определяется эмпирическим путем. Для проверки одной и той же гипотезы можно использовать разные критерии, но при этом обнаруживается, что одни критерии выявляют различия, а другие – нет. Те критерии, которые обнаруживают различия, особенно на малых выборках, в то время как другие неспособны это сделать признаются более мощными, и это снижает, хотя это и не устраняет вероятности ошибочного вывода.

Статистический вывод связан с так называемыми ошибками I и II рода. Ошибка, состоящая в том, что была отклонена нулевая гипотеза, в то время, как она верна, называется ошибкой I рода. Ошибка, состоящая в том, что была принята нулевая гипотеза, в то время как она неверна, является ошибкой II рода. Иначе говоря, это ошибки отвержения истинной гипотезы и принятия ложной. Ниже представлено распределение истинных решений и возможных ошибок статистического вывода.

 

Таблица 7.1. Распределение ошибок и истинных

решений в зависимости от верности гипотез и решений исследователя.

 

  H0 верна H1 неверна H0 неверна H1 верна
Отклонить H0 Принять H1 Ошибка I рода a Истинное решение 1-b
Принять H0 Отклонить H1 Истинное решение 1-a Ошибка II рода b

7.7. Параметрические и непараметрические критерии.Критерии принято делить на параметрические и непараметрические. Параметрическими критериями являются те, в формулу расчета которых входят параметры распределения – средние или дисперсии. Непараметрические критерии в отличии от параметрических основаны на использовании в их формулах частот, долей или рангов. Непараметрические критерии применимы к переменным выраженным в любых шкалах, а параметрические – только лишь к тем переменным, которые выраженны в шкалах интервалов или отношений.

И те, и другие критерии имеют свои преимущества и недостатки. В тех случаях, когда переменная измерена в шкале интервалов и ее распределение близко к нормальному, лучше пользоваться параметрическими критериями, т.к. они оказываются более мощными, чем непараметрические. Но в том случае, если эти условия не выполняются, более эффективными окажутся непараметрические критерии, так как им ''все равно'' в каких шкалах измерены переменные и соответствует распределение нормальному или нет. В ряде случаев непараметрическим критериям нет замены, особенно если признак определялся не количественно, а качественно.

7.8. Классификация задач и методов их решения.До настоящего времени созданы десятки статистических критериев, которые существуют для решения довольно ограниченного круга задач. Создание статических критериев не является самоцелью, каждый из таких методов проверки гипотез имеет свои преимущества и недостатки, и в некоторых случаях может, а в некоторых – не может быть заменен другими критериями. Основанием для выбора критерия является не только его мощность, но и другие характеристики: простота вычисления, применимость к неравным по объему выборкам, применимость к нескольким выборкам сразу, возможность использования его для переменных, измеренных в разных шкалах, универсальность (возможность применения его к решению самых различных задач).

Все многообразие задач, с которыми приходится сталкиваться экспериментатору при проверке гипотез можно свести к нескольким группам:

1. Выявление различий в распределении переменной в разных группах испытуемых;

2. Проверка совпадения эмпирических результатов с ожидаемыми теоретическими;

3. Обнаружение влияния фактора на распределение переменной;

4. Обнаружение интересующего исследователя эффекта в одной или разных выборках испытуемых.

7.9. Выявление различий в распределении переменной в разных группах испытуемых.Эта задача выявления различий между мужчинами и женщинами, здоровыми и больными, представителями разных социальных групп, людьми разного возраста и т.д. в отношении их психологических особенностей.

7.9.1. U-критерий Манна-Уитни. Для того, чтобы его вычислить, необходимо проранжировать данные обеих выборок так, как будто это одно распределение, затем подсчитать отдельно суммы рангов значений случайной величины в каждой выборке, а после этого полученные результаты подставить в формулы:

и

Особенности этого критерия заключаются в следующем:

1. Критерий позволяет оценить средние тенденции, например, ответить на вопрос, чаще в одной выборке встречаются более высокие значения, чем в другой;

2. Этот критерий является двусторонним, т.е. он имеет два значения, которые должны, либо оба попасть в интервал критических значений, либо оказаться за пределами этого интервала;

3. Чем меньше полученные значения, тем более вероятно, что различия достоверны;

4. Переменные должны быть измерены в шкале порядка, или переведены в эту шкалу;

5. В каждой выборке должно быть не менее 3-х наблюдений и не более 60-ти.

 

Пример расчета U-критерия (переменной являлось время в мин. и сек. выполнения двумя группами испытуемых одного и того же задания)

Группа 1 (n=11) 2'19'' 1'05'' 1'23'' 3'01'' 2'54'' 2'12'' 1'25'' 3'14'' 1'35'' 2'29'' 3'30''
Группа 2 (n=10) 1'33'' 1'45'' 2'01'' 0'55'' 1'05'' 0'45'' 1'10'' 1'12'' 3'15'' 5'44''  
Ранг 1 3,5
Ранг 2 3,5  

, Umin(0.05) = 26

, Umax(0.05) = 84

Вывод: два распределения не отличаются статистически значимо друг от друга, т.к. U1 > Umin , а U2 < Umax , т.е. оба полученных значения попадают в границы интервала, образованного критическими значениями U0.05 .

7.9.2. t-критерий Стьюдента. Это один из наиболее известных параметрических критериев, применяемый для определения того, относятся две выборки к одной генеральной совокупности или нет, или, по-другому, для установления того, насколько сильно различаются средние и дисперсии двух распределений:

Особенности его следующие:

1. Может быть использован для установления различий между двумя выборками в уровне исследуемого признака, поскольку в его формулу обязательно входит разность средних арифметических двух выборок;

2. Чем больше разность между средними арифметическими двух выборок, тем больше будет эмпирическое значение t-критерия и тем более вероятно обнаружение различий;

3. Критерий позволяет сформулировать направленные гипотезы;

4. Переменные должны быть измерены в шкалах интервалов или отношений и, по крайней мере, теоретически, подвержены нормальному распределению;

5. Выборки могут быть сколь угодно большими.

X Y
   
   
   
Суммы  

,

, t0.05 = 2.09, t0.01 = 2.86

Вывод: распределения X и Y статистически не различаются (или, по-другому, выборки относятся к одной генеральной совокупности), т.к. tэмп < t0.05 .

7.9.3. F-критерий Фишера. Параметрический критерий, позволяющий оценить различия в распределении признака в двух выборках, имеющих одинаковые средние значения, (т.е. в тех случаях, когда t-критерий Стьюдента неприменим):

,

при этом в числителе всегда должна быть большая дисперсия, а в знаменателе меньшая.

Как достоинства, так и недостатки у него те же, что и у t-критерия Стьюдента, но он оказывается неприменим для случаев, когда средние двух выборок различны, т.к. полученный вывод будет представлять собой артефакт.

 

  X Y
  -1
 
 
  -2 -4
  -3 -3
  -2
 
  -4
  -1 -1
       
Средние        
Суммы        

, F0.05 = 3.23, F0.01 = 5.47

Вывод: различия между двумя распределениями статистически достоверны на 5-% уровне значимости, т.к. Fэмп > F0.05, но недостоверны на 1-% уровне, т.к. Fэмп < F0.01

7.10. Проверка совпадения эмпирических результатов с ожидаемыми теоретическими.Это задача является довольно традиционной при создании и адаптации психологических тестов, когда необходимо проверить насколько совпадает эмпирическое распределение тестового балла с нормальным распределением. Близкой, по сути, является и задача сопоставления двух эмпирических распределений, например, если необходимо сравнить распределения того же тестового балла в разных группах испытуемых. Можно аналогичным образом сравнивать распределение реакций одного испытуемого в разных условиях, и все это будет сравнением двух распределений: теоретического с эмпирическим или эмпирического с эмпирическим.

7.10.1.-критерий Пирсона. Вычисляется по формуле:

,

где fxj эмпирическая частота, fyjтеоретическая частота.

Особенности этого критерия:

1. Отвечает на вопрос, с одинаковой частотой или нет, встречаются разные значения признака в эмпирическом и теоретическом распределении;

2. В независимости от шкалы измерения признака, все результаты должны быть разбиты на несколько разрядов или классов;

3. В каждом классе должно быть не менее 5 наблюдений;

 

4. Выборки должны быть достаточно большими (n > 30), причем точность критерия повышается при больших n.

5. Чем выше оказывается полученное значение, тем более вероятно обнаружение различий между двумя распределениями.

 

№ класса Эмп.f Теор.f f-f* (f-f*) (f-f*)/f*
18.43 4.571 20.9 1.134
18.43 -6.43 41.33 2.243
18.43 -9.43 88.9 4.824
18.43 8.571 73.47 3.987
18.43 5.571 31.04 1.684
18.43 -0.43 0.184 0.01
18.43 -2.43 5.898 0.32
Суммы     14.2

, = 12.59, = 16.81

Вывод: различия между двумя распределениями статистически достоверны на 5-% уровне значимости, т.к. > , но недостоверны на 1-% уровне, т.к. < .

 

7.11. Обнаружение влияния фактора на распределение переменной. Это задача представляет собой попытку доказательства влияния на психологическую переменную других, чаще всего непсихологических переменных. Например, влияния обучения на уровень знаний, умений или навыков, условий работы – на производительность труда, условий эксперимента – на распределение результатов и т.д.

7.11.1. G-критерий знаков (Мак-Немара). Один из наиболее легких и простых статистических критериев, который равняется количеству сдвигов значений случайной величины в сторону увеличения или уменьшения значений под влиянием фактора.

Достоинства и недостатки этого критерия:

1. Устанавливает общее направление сдвига исследуемого признака, либо в сторону улучшения, либо в сторону ухудшения результатов, и, таким образом, позволяет проверять направленные гипотезы;

2. Применим к любым сдвигам, и тем, которые определяются количественно, и к тем, которые определяются качественно;

3. Применим лишь по отношению к одной и той же выборке, которая подвергалась воздействию фактора X;

4. Количество наблюдений должно быть не менее 5 и не более 300;

5. В том случае, если сдвиги варьируют в довольно широком диапазоне лучше использовать T-критерий Вилкоксона.

 

N
до влияния фактора
после влияния фактора
Результат + + + + + + + = + + +

 

Количество сдвигов со знаком ''+'' = 10

Вывод: влияние фактора недостоверно, т.к. Gэмп < G0.05 (G0.05 = 11)

 

7.11.2. T-критерий Вилкоксона. Этот критерий применяется для решения тех же задач, что и критерий знаков, но он позволяет оценить не только направление сдвига, но и его интенсивность, особенно, если вариации признака ярко выражены. Он основан на подсчете суммы рангов значений сдвигов случайной величины с более редким (или менее ожидаемым) знаком:

,

при этом – чем меньше полученное значение T-критерия, тем более вероятно влияние фактора

 

N
до влияния фактора
после влияния фактора
Разность -1 -3 -2 -1
Абсолютная разность
ранг абс.разности 7,5 5,5 7,5 5,5

 

T = 3 + 3 + 5.5 + 7.5 = 19

Вывод: влияние фактора достоверно, т.к. Тэмп < Т0.010.01 = 19)

 

Примечание: в этом примере использованы те же данные, что и в случае с критерием знаков, однако выводы получены прямо противоположные. Такую ситуацию можно объяснить следующим образом: влияние фактора не является достоверным, если говорить об общей тенденции, но оно в то же время достоверно в отношении части испытуемых, если говорить об интенсивности влияния, хотя, конечно, гораздо более точный вывод можно сделать, если критерии подтверждают друг друга, чем вступают в противоречие.

7.11.3. Дисперсионный анализ. Это вид статистического анализа, предназначенный для исследования влияния одного, двух и более факторов на распределение признака на одной выборке или на нескольких независимых выборках в разных условиях. Он представляет собой отдельную главу в истории математической статистики, и в силу значительного объема изложения рассматривается в гл. 8.

 





Читайте также:


Рекомендуемые страницы:


Читайте также:
Как вы ведете себя при стрессе?: Вы можете самостоятельно управлять стрессом! Каждый из нас имеет право и возможность уменьшить его воздействие на нас...
Почему человек чувствует себя несчастным?: Для начала определим, что такое несчастье. Несчастьем мы будем считать психологическое состояние...
Почему двоичная система счисления так распространена?: Каждая цифра должна быть как-то представлена на физическом носителе...



©2015-2020 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (1046)

Почему 1285321 студент выбрали МегаОбучалку...

Система поиска информации

Мобильная версия сайта

Удобная навигация

Нет шокирующей рекламы



(0.03 сек.)