Соционика и другие типологии

Соционика - наука или искусство?

СВЯЗИ МЕРЫ

E-mail Печать PDF
Рейтинг пользователей: / 0
ХудшийЛучший 

СВЯЗИ МЕРЫ - количественные показатели тесноты и направления связи. С.М. конструируются таким образом, чтобы их значения изменялись в интервале [0; 1] или [-1; +1]. Значение коэффициента, равное нулю, может свидетельствовать как об отсутствии связи между переменными, так и о том, что выбранная модель не соответствует характеру изучаемой связи. Положительные значения коэффициента свидетельствует о прямой (положительной) либо о ненаправленной связи между переменными; отрицательные значения - об обратной (отрицательной) связи (см.

Анализ корреляционный). Чем ближе значение коэффициента к +1 или -1, тем теснее связь. Значение, равное +1 или -1, свидетельствует о полной связи, позволяющей по значению одной переменной точно предсказывать значение другой переменной.

Для связей между номинальными переменными, анализируемыми посредством таблицы сопряженности (см.), наиболее общей является модель "хи-квадрат". Коэффициенты тесноты связи, основанные на критерии "хи-квадрат" (см.), могут принимать значения в интервале от 0 до +1 (см. Корреляция качественных переменных). Значение коэффициента, равное нулю, означает полное отсутствие связи между переменными.

Главными недостатками модели являются отсутствие каких-либо представлений о характере связи, а также конструктивные особенности коэффициентов, которые даже при полной связи не всегда достигают значения +1. Для номинальных переменных (за исключением дихотомических) принципиально невозможно исследовать направление связи. Поэтому предназначенные для них коэффициенты, основанные на критерии "хи-квадрат", не могут принимать отрицательных значений.

Для таблиц сопряженности, образованных двумя дихотомическими переменными, используются специальные коэффициенты связи (см. Корреляция дихотомических переменных), которые могут принимать значения от -1 до +1. Значение, равное +1, означает полную прямую связь, заключающуюся в том, что признаки появляются или не появляются одновременно; значение, равное -1, - полную обратную связь, при которой признаки появляются только врозь; значение, равное 0, - отсутствие связи, состоящее в том, что признаки появляются совместно и порознь с одинаковой частотой.

>Для ранжированных переменных применяются коэффициенты ранговой корреляции. Эти же коэффициенты с поправкой на связность рангов (см. Корреляция ранговых переменных) могут с успехом применяться для любых порядковых признаков. Существуют также способы расчета ранговых коэффициентов по таблицам сопряженности, образованным двумя порядковыми признаками.

Значения ранговых мер связи изменяются в интервале от -1 до +1. Значение, равное нулю, соответствует отсутствию связи между переменными. Значение, равное +1, свидетельствует о полной прямой связи, то есть о фактическом совпадении рангов измеряемых объектов по двум переменным; значение, равное -1, - о полной обратной связи, т.е. строго обратном порядке ранжирования.

Для количественных переменных наиболее распространенной моделью связи является модель статистической связи линейной (см.) y = bx + a, а наиболее популярной мерой связи - коэффициент линейной корреляции Пирсона (см.). Значение коэффициента, равное нулю, свидетельствует об отсутствии линейной связи между двумя переменными, что не исключает нелинейной связи между ними. Значение, равное +1, говорит о полной прямой линейной связи между переменными, заключающейся в том, что все измеряемые объекты "лежат" на прямой y = bx + a, т.е. любая пара измеренных значений (xi, yi) удовлетворяет условию yi = bxi + a, где b > 0. Значение, равное -1, соответствует полной обратной линейной связи, при которой любая пара измеренных значений (xi, yi) удовлетворяет условию yi = bxi + a, где b < 0.

Если связь между двумя количественными переменными имеет причинный характер и может быть описана некоторой математической функцией (см. Анализ регрессионный), ее можно измерить с помощью дисперсии объясненной (см.).

Доля объясненной дисперсии изменяется в интервале от 0 до +1 и измеряет только тесноту связи, но не ее направление. Значение, равное 0, интерпретируется как отсутствие влияния независимой переменной на зависимую. Значение, равное +1, означает, что все различия в значениях зависимой переменной объясняются исключительно изменениями независимой переменной. Если регрессионная связь является линейной, коэффициент детерминации (см.) равен квадрату коэффициента линейной корреляции Пирсона.

Если причинная связь не является линейной или если независимая переменная является номинальной или порядковой, для измерения тесноты связи можно использовать аналог коэффициента детерминации - корреляционное отношение (см.).

Если причинная связь является множественной, т.е. на зависимую переменную одновременно влияют несколько независимых переменных (предикторов), теснота связи зависимой переменной с набором предикторов измеряется с помощью коэффициента множественной корреляции

R или квадрата коэффициента множественной корреляции R². Последний интерпретируется аналогично коэффициенту детерминации для парной регрессионной связи, он не измеряет направление связи и изменяется в пределах от 0 до +1.

Теснота связи зависимой переменной с каждым из предикторов (см.) в рамках модели множественной линейной регрессии измеряется посредством коэффициентов корреляции частной (см.). Коэффициенты частной корреляции измеряют тесноту и направление частных ("очищенных" от влияния других переменных) связей между зависимой переменной и отдельными предикторами и принимают значения в интервале от -1 до +1. Они интерпретируются аналогично коэффициенту корреляции Пирсона.

О.В. Терещенко


Новые статьи:
Старые статьи: