Как найти корреляционный момент. Вероятность обычно обозначают буквой Р
Для характеристики корреляционной зависимости между величинами используются коррекляционный момент и коэффициент корреляции.
О п р е д е л е н и е 2. Корреляционным моментом µ xy случайных величин X и Y называют математическое ожидание произведения отклонений этих величин
Для вычисления корреляционного момента дискретных величин используется выражение
(3.12)
а для непрерывных – выражение
(3.13)
З а м е ч а н и е. Корреляционный момент µ xy может быть переписан в виде
(3.14)
Действительно, используя свойства математического ожидания (см. §§ 2.2; 2.6), имеем
Т е о р е м а. Корреляционный момент двух независимых случайных величин X и Y равен нулю.
Д о к а з а т е л ь с т в о. Согласно замечанию
а так как Х и Y независимые случайные величины, то (см. §§ 2.2; 2.6)
и, значит, µ xy =0.
Из определения корреляционного момента следует, что он имеет размерность, равную произведению размерностей величин X и Y,т.е. его величина зависит от единиц измерения случайных величин. Поэтому для одних и тех же двух величин величина корреляционного момента может иметь различные значения в зависимости от того, в каких единицах были измерены величины. Для устранения этого недостатка условились за меру связи (зависимости) двух случайных величин X и Yпринять безразмерную величину
где σ х =σ(Х), σ y =σ(Y), называемую коэффициентом корреляции.
П р и м е р 1. Пусть двумерная дискретная случайная величина (X,Y)задана законом распределения:
и, значит,
Сложив же вероятности по столбцам, найдем вероятности возможных значений Y:
Отсюда закон распределения Y:
Y | |||
p | 1\3 | 1\2 | 1\6 |
и, значит,
Следовательно,
Таким образом, коэффициент корреляции
Т е о р е м а. Абсолютная величина корреляционного момента двух случайных величин не превосходит произведения их средних квадратических отклонений:
Д о к а з а т е л ь с т в о. Введя в рассмотрение случайную величину где
найдем ее дисперсию. Имеем
(любая дисперсия неотрицательна). Отсюда
Введя случайную величину ,
аналогично найдем
В результате имеем
О п р е д е л е н и е 2. Случайные величины X и Y называются некоррелированными, если = 0, и коррелированными, если
П р и м е р 1. Независимые случайные величины Х и Y являются некоррелированными, так как в силу соотношения (3.12) = 0.
П р и м е р 2. Пусть случайные величины Х и Y связаны линейной зависимостью Найдем коэффициент корреляции. Имеем:
Таким образом, коэффициент корреляции случайных величин, связанных линейной зависимостью, равен ±1 (точнее, =1, если А>0 и =-1, если А<0).
Отметим некоторые свойства коэффициента корреляции.
Из примера 1 следует:
1) Если X и Y - независимые случайные величины, то коэффициент корреляции равен нулю.
Заметим, что обратное утверждение, вообще говоря, неверно. (Доказательство см. в работе .)
2)Абсолютная величина коэффициента корреляции не превосходит единицы:
Действительно, разделив обе части неравенства (3.16) на произведение , приходим к искомому неравенству.
3) Как видно из формулы (3.15) с учетом формулы (3.14), коэффициент корреляции характеризует относительную величину отклонения математического ожидания произведения от произведения математических ожиданий М(Х) М(Y) величин X и Y. Так как это отклонение имеет место только для зависимых величин, то можно сказать, чтокоэффициент корреляции характеризует тесноту зависимости между X и Y.
3. Линейная корреляция. Этот вид корреляционной зависимости встречается довольно часто.
О п р е д е л е н и е. Корреляционная зависимость между случайными величинами Х и Y называется линейной корреляцией, если обе функции регрессии и являются линейными. В этом случае обе линии регрессии являются прямыми; их называют прямыми регрессии.
Выведем уравнения прямой регрессии Y на X, т.е. найдем коэффициент линейной функции
Обозначим М(Х) = а, М(Y) = b, М[(Х - а) 2 ] = , М[(Y –b 2)] = . С использованием свойств МО (§§ 2.2; 2.6) находим:
М(Y) = М = М(АХ + В)= АМ(Х) + В,
т.е. b = Аа + В, откуда В=b-Аа.
М(ХY) = М[Хg(Х)\ = М(АХ 2 + ВХ) = АМ(Х 2) + ВМ(Х) = АМ(Х 2) + (b- Аа)а,
или, согласно свойству 1 дисперсии (§§ 2.3; 2.6),
Полученный коэффициент называется коэффициентом регрессии Y на X и обозначается через :
Таким образом, уравнение прямой регрессии Y на X имеет вид
Аналогично можно получить уравнение прямой регрессии X на Y
Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции
Мы ввели в рассмотрение числовые характеристики одной случайной величины Х - начальные и центральные моменты различных порядков. Из этих характеристик важнейшими являются две: математическое ожидание m x и дисперсия Dx.
Аналогичные числовые характеристики - начальные и центральные моменты различных порядков - можно ввести и для системы двух случайных величин. Начальным моментом порядка k, s системы (X, Y) называется математическое ожидание произведения Х k на Y s :
M[Х k Y s ]
Центральным моментом порядка k, s системы (X, Y) называется математическое ожидание произведения k-й и s-й степени соответствующих центрированных величин:
На практике обычно применяются только первые и вторые моменты.
Первые начальные моменты представляют собой уже известные нам математические ожидания величин Х и Y, входящих в систему:
m x и m y
Совокупность математических ожиданий m x , m y представляет собой характеристику положения системы. Геометрически это координаты средней точки на плоскости, вокруг которой происходит рассеивание точки (X. Y).
Кроме первых начальных моментов, на практике широко применяются еще, вторые центральные моменты системы. Два из них представляют собой уже известные нам дисперсии величин Х и Y.
D[X] и D [Y], характеризующие рассеивание случайной точки в направлении осей Ох а Оу.
Особую роль как характеристика системы играет второй смешанный центральный момент:
μ 1,1 = М ,
т. е. математическое ожидание произведения центрированных величин. Ввиду того, что этот момент играет важную роль в теории систем случайных величин для него введено особое обозначение:
Кху =М[Х 0 Y 0 ]=M[(X-m x )(Y- m y )].
Характеристика Кxy называется корреляционным моментом (иначе - «моментом связи») случайных величин X, Y.
Для дискретных случайных величин корреляционный момент выражается формулой
Кху =Σ Σ(x i -m x )(y j -m y ) p ij
Выясним смысл и назначение этой характеристики. Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо рассеивания величин Х и Y, еще и связь между ними. Для независимых случайных величин корреляционный момент равен нулю.
Таким образом, если корреляциснный момент двух случайных величин отличен от нуля, это есть признак наличия зависимости между ними.
Из формулы видно, что корреляционный момент характеризует не только зависимость величин, но и их рассеивание. Действительно, если, например, одна из величин (X, Y) весьма мало отклоняется от своего математического ожидания (почти не случайна), то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины (X, Y). Поэтому для характеристики связи между величинами (X, Y) в чистом виде переходят от момента к безразмерной характеристике
rху=Кху/σх σу
где σх, σу - средние квадратические отклонения величин X, Y. Эта характеристика называется коэффициентом корреляции величин Х и Y.
Очевидно, коэффициент корреляции обращается в нуль одновременно с корреляционным моментом; следовательно, для независимых случайных величин коэффициент корреляции равен нулю.
Случайные величины, для которых корреляционный момент (а значит, и коэффициент корреляции) равен нулю, называются некоррелированными (иногда - «несвязанными»).
Эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Известно, что независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обратное положение, вытекает ли из некоррелированности величин их независимость? Оказывается - нет. Существуют такие случайные величины, которые являются некоррелированными, но зависимыми. Равенство нулю коэффициента корреляции - необходимое, но не достаточное условие независимости случайных величин. Из независимости случайных величин вытекает их некоррелированность; напротив, из некоррелированности величии еще не следует их независимость. Условие независимости случайных величин-более жесткое, чем условие некоррелированности.
Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Эта тенденция к линейной зависимости может быть более или менее ярко выраженной, более или менее приближаться к функциональной, т. е. самой тесной линейной зависимости. Коэффициент корреляции характеризует степень тесноты линейной зависимости между случайными величинами. Если случайные величины Х и Y связаны точной линейной функциональной зависимостью:
У=аХ + в, то rху = ±1, причем знак «плюс» или «минус» берется в зависимости от того, положителен или отрицателен коэффициент а. В общем случае, когда величины Х и Y связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пределах:
1 < rху < 1
В случае r > 0 говорят о положительной корреляции величин Х и Y, в случае г<0 - об отрицательной корреляции. Положительная корреляция между случайными величинами означает, что при возрастании одной из них другая имеет тенденцию в среднем возрастать; отрицательная корреляция означает, что при возрастании одной из случайных величин другая имеет тенденцию в среднем убывать.
Приведем несколько примеров случайных величин с положительной и отрицательной корреляцией.
1.Вес и рост человека связаны положительной корреляцией.
2.Время, потраченное на подготовку к занятиям, и полученная оценка связаны положительной корреляцией (если, разумеется, время потрачено разумно). Наоборот, время, потраченное на подготовку, и количество полученных двоек, связаны отрицательной корреляцией.
3. Производится два выстрела по цели; точка попадания первого выстрела регистрируется, и в прицел вводится поправка, пропорциональная ошибке первого выстрела с обратным знаком. Координаты точек попадания первого и второго выстрелов будут связаны отрицательной корреляцией.
Если в нашем распоряжении имеются результаты ряда опытов над системой двух случайных величин (X, Y), то о наличии или отсутствии существенной корреляции между ними легко судить в первом приближении по графику, на котором изображены в виде точек все полученные из опыта пары значений случайных величин. Например, если наблюденные пары значений величин расположились следующим образом
![]() |
4 страницы (Word-файл)
Посмотреть все страницы
Фрагмент текста работы
где
для дискретных случайных величин Хи У и
, y)dxdy
для непрерывных случайных величин,
Корреляционный момент служит для характеристики связи между случайными величинами. В частности, для независимых случайных величин Х и У корреляционный момент Сху равен нулю.
По определению корреляционный момент имеет размерность, равную произведению размерностей величин Х и У. Это значит, что величина корреляционного момента зависит от единиц измерения случайных величин. Например, если при измерении величин Х и У в сантиметрах получилось С». 2 см2, то при измерении Х и У в миллиметрах получим Сху = 200 мм2. Такая зависимость корреляционного момента от единиц измерения затрудняет сравнение различных систем случайных величин. Чтобы устранить этот недостаток, вводится безразмерная характеристика rry связи между величинами Х и У, называемая коэффициентом корреляции:
Если случайные величины Х и У независимы, то r», = О. Если же случайные величины Хи У связаны точной линейной зависимостью У = ах + Ь, то rxy= l при а>О и Ъ. = - при а z О. Вообще же справедливо двойное неравенство -1 S rxyS
Свойство независимости двух случайных величин Х и У в общем случае не равносильно их некоррелированности (т.е. равенству rn. = 0). Однако для нормально распределенных составляющих двумерной случайной величины это так.
Закон распределения системы двух дискретных случайных величин (Х, Л задан следующей таблицей
) законы распределения случайных величин Х и У;
2) условный закон распределения случайной величины Х при условии, что У = 1;
3) математические ожидания ИХ), Ц У) и центр рассеивания;
4) дисперсии D(X) и ДУЭ;
5) корреляционный момент Сду и коэффициент корреляции Ъ.
1. Сложив вероятности по строкам, получаем вероятности возможных значений случайной величины Х: = 0,4, p(l) = 0,2, р(4) = 0,4. Следовательно, закон распределения величины Х имеет следующий вид
Проверка: 0,4 + 1.
Сложив вероятности по столбцам, получаем вероятности возможных значений случайной величины У: = 0,1, p(l) = 0,3, АЗ) = 0,6. Напишем закон распределения величины У
Проверка: (),l + 0,3 + 0,6 =
2.
Найдем
условные вероятности для случайной величины Х при условии, что У = У-2 = 1:
p(-l f 1) = -Р12
Так как распределения (Х 1 У = 1) имеет следующую таблицу
З. Исходя из определения, вычисляем математические ожидания:
5. Составим таблицу системы чентривжанных случайных величин
х, У, где У=У-т = У -1,9
Вычислим корреляционный момент:
(-3,9) 0-2,4 (-0,9)
Система двух непрерывных случайных величин (Х, У) имеет равномерное распределение в области D = «х, у) - S х S 3, О S у S х + l} .
) плотность распределения;
2) вероятность Ч Х, У) с попадания в область
3) плотностиЛ(х) и Ку) распределения случайных величин Х и У, а также условные плотности и y(ylx);
4) функции и F20) распределения случайных величин Х и У;
5) математические ожидания М(Х), и центр рассеивания;
6) дисперсии и Ц У);
7) корреляционный момент Сл. и коэффициент корреляции
1. По условию функция плотности имеет вид а, если -lSxS3 и 0SySx+l, О, если (х, у) Е Д
Для нахождения параметра а воспользуемся соотношением f(x, y)dy.dy = , где обл5сть интегрирования D изображена на рис. 7.
|
|
Область D ограничена слева и справа прямыми х = -1 и х = 3, а снизу и сверху - прямыми О и У2(х) = х + 1. Переходя к повторному интегралу, имеем:
3
fady= гаур Х +1 Д = fa(x + l)dx =
8а. Так как 8а = 1, ТО а з- и функция ПлОтнОсТи 8
имеет вид
-, если
О, если (х,у) Е).
2. Изобразим область G, которая представляет собой круг радиуса 2 с центром в точке (2, О) (см. рис. 8). Так как функция Ах, у) равна нулю вне
3. Найдем плотностиЛ(х) илу):
поэтому
Следовательно,
Для О S у S 4 аналогично получаем
Для описания системы двух случайных величин, кроме математических ожиданий и дисперсий составляющих пользуются и другими характеристиками, к числу которых относятся корреляционный момент икоэффициент корреляции (кратко было упомянуто в конце Т.8.п.8.6).
Корреляционным моментом (иликовариацией, или моментом связи ) двух случайных величинX иY называется м. о. произведения отклонений этих величин (см. равенство (5) п. 8.6):
Следствие 1. Длякорреляционного момента с.в. X иY также справедливы равенства:
,
где соответствующие централизованные с.в.X иY (см. п.8.6.).
При
этом: если
-
двумерная д.с.в., то ковариация вычисляется
по формуле
(8)
;
если
-
двумерная н.с.в., то ковариация вычисляется
по формуле
(9)
Формулы (8) и (9) получены на основании формул (6) п.12.1. Имеет место вычислительная формула
(10)
которая выводится из определения (9) и на основании свойств м.о., действительно,
Следовательно, формул (36) и (37) можно переписать в виде
(11)
;
Корреляционный момент служит для характеристики связи между величинами X иY .
Как будет показано ниже, корреляционный момент равен нулю, если X иY являются независимыми;
Следовательно, если корреляционный момент не равен нулю, то X и Y – зависимые случайные величины.
Теорема12.1.
Корреляционный момент
двух независимых случайных величин
X
и
Y
равен нулю,
т.е. для независимых с.в.
X
и
Y
,
Доказательство. Так какX иY независимые случайные величины, то их отклонения
и
т
акже
независимы. Пользуясь свойствами
математического ожидания (математическое
ожидание произведения независимых с.
в. равно произведению математических
ожиданий сомножителей,
,
поэтому
Замечание.
Из этой теоремы следует,
что если
то с.в.
X
иY
зависимы и в таких случаях с.в.
X
иY
называюткоррелированными
. Однако из того,
что
не следует независимость с.в.X
иY
.
В этом случае (с.в.X
иY
называютнекоррелированными,
тем
самым из
независимости вытекает некоррелированность ; обратное утверждение, вообще говоря, неверно (см. далее пример 2.)
Рассмотрим основные свойства корреляционного момента.
C войства ковариации:
1.
Ковариация симметрична, т.е.
.
Непосредственно следует из формулы (38).
2. Имеют место равенства:т.е. дисперсия с.в. является ковариацией её с самой собой.
Эти равенства прямо следуют из определения
дисперсии и равенство (38) соотвеиственно
при
3. Справедливы равенства:
Эти
равенства выводятся из определения
дисперсии, ковариации с.в.и
,
свойств 2.
По определению дисперсии (с учётом
централизованности с.в.
)
мы имеем
теперь, на основании (33) и свойств 2 и 3, получим первое (со знаком плюс) свойство 3.
Аналогично, вторая часть свойства3, выводится из равенство
4.
Пустьпостоянные
числа,
тогда справедливы равенства:
Обычно эти свойства называются свойствами однородностью первого порядка и периодичностью по аргументам.
Докажем
первое равенство, при этом будем
использовать свойства м.о.
.
Теорема 12.2. Абсолютное значение корреляционного момента двух произвольных случайных величин X и Y не превышает среднего геометрического их дисперсий: т.е.
Доказательство.
Заметим, чтодля
независимых с.в. неравенство выполняется
(с.м. теорему 12.1.). Итак, пусть с.в.X
и
Y
зависимые.
Рассмотрим стандартные с.в.и
и вычислим дисперсию с.в.
с учётом свойства 3, имеем: с одной
стороны
С другой стороны
Следовательно,
с учётом того, что
и
-
нормированные (стандартизированные)
с.в., то для них м.о. равна нулю, а дисперсия
равна 1, поэтому, пользуясь свойством
м.о.
получим
а
следовательно, на основании того, что
получим
Отсюда следует, что т.е.
=
Утверждение доказано.
Из определения и свойства ковариации
следует, что она характеризует и степень
зависимости с.в., и их рассеяния вокруг
точки
Размерность ковариации равна произведению
размерностей случайных величинX
иY
. Другими словами,
величина корреляционного момента
зависит от единиц измерения случайных
величин. По этой причине для одних и тех
же двух величинX
иY
,
величина корреляционного момента
будет иметь различные значения в
зависимости от того, в каких единицах
были измерены величины.
Пусть, например, X
и Y
были измерены в
сантиметрах и
;
если измерить X
иY
в миллиметрах,
то
Эта особенность корреляционного момента
и есть недостатком этой числовой
характеристики, так как сравнение
корреляционных моментов различных
систем случайных величин становится
затруднительным.
Для того чтобы устранить этот недостаток, вводят новую числовую характеристику- - «коэффициент корреляции ».
Коэффициентом корреляции
случайных величин
и
называют отношение корреляционного
момента к произведению средних
квадратических отклонений этих величин:
(13)
.
Так как размерность
равна произведению размерностей величин
и
,
имеет размерность величины
σ y
имеет размерность величины
,
то
есть просто число (т.е. «безразмерная
величина»
). Таким образом, величина
коэффициента корреляции не зависит от
выбора единиц измерения с.в., в этом
состоитпреимущество
коэффициента
корреляции перед корреляционным
моментом.
В Т.8. п.8.3 нами было введено понятие
нормированной
с.в.,
формула (18), и доказана теорема о том,
что
и
(см.
там же теорема 8.2.). Здесь докажем следующее
утверждение.
Теорема 12.3.
Длялюбых двух случайных
величин
и
справедливо
равенство
.Другими словами, коэффициент корреляции
любых двух с
.в
.X
и
Y
равно
корреляционному моменту их соответствующих
нормированных
с.в.
и
.
Доказательство.
По определениюнормированных случайных величини
и
.
Учитывая свойство математического ожидания: и равенство (40) получим
Утверждение доказано.
Рассмотрим некоторые часто встречающие свойства коэффициента корреляции.
Свойства коэффициента корреляции:
1. Коэффициент корреляции по абсолютной величине непревосходит 1, т.е.
Это свойство прямо следует из формулы (41) - определения коффициента корреляции и теоремы 13.5. (см. равенство (40)).
2. Если случайные величиныи
независимы,
токоэффициент корреляции
равен нулю, т.е.
.
Это свойство является прямым следствием равенства (40) и теоремы 13.4.
Следующее свойство сформулируем в виде отдельной теоремы.
Теорема 12.4.
Если
с.в.
и
между
собой связаны линейной функциональной
зависимостью, т.е.
то
при этом
и
наоборот, если
,
то
с.в.
и
между собой связаны линейной функциональной
зависимостью, т.е. существуют постоянные
и
такие, что имеет место равенство
Доказательство.
Пусть
тогда
на основании
свойства 4 ковариации, имеем
и поскольку, , поэтому
Следовательно,
.
Равенство в одну сторону получено. Пусть
далее,
,
тогда
следует
рассматривать два случая:1)
и
2)
Итак, рассмотрим первый случай. Тогда
по определению
и
следовательно из равенства
,
где
.
В нашем случае
,
поэтому из равенства (см. доказательство
теоремы 13.5.)
=
,
получаем,
что
,
значит
постоянна.
Так как
и поскольку,
то
действительно,
.
Следовательно,
.
Аналогично,
показывается, что для
имеет место (проверьте самостоятельно!)
,
.
Некоторые выводы:
1. Если
и
независимыес.в., то
2. Если с.в.и
между
собой связаны линейно, то
.
3. В остальных случаях
:
В этом
случае говорят, что с.в.и
связаны между собойположительной
корреляцией,
если
в случаях же
отрицательной
корреляцией
. Чем ближе
к единице, тем больше оснований считать,
чтос.в.
и
связаны линейной зависимостью.
Отметим, что корреляционные моменты и дисперсии системы с.в. обычно задаются корреляционной матрицей :
.
Очевидно, что определитель корреляционной матрицы удовлетворяет:
Как уже было отмечено, если две случайные величины зависимы, то они могут быть как коррелированными , так инекоррелированными. Другими словами, корреляционный момент двух зависимых величин может бытьне равен нулю , но может иравняться нулю.
Пример 1. Закон распределения дискретной с.в.задан таблицей
| |||
|
|
|
|
|
|
|
Найти
коэффициент корреляции
Решение.
Находим законы распределения
составляющихи
:
Теперь вычислим м.о. составляющих:
Этих
величин можно было находить на основании
таблицы распределения с.в.
Аналогично,
находите
самостоятельно.
Вычислим дисперсии составляющих при это будем пользоваться вычислительной формулой:
Составим
закон распределения
,
а затем найдём
:
При составлении таблицы закона распределения следует выполнять действия:
1) оставить лишь различные значения
всевозможных произведений
.
2) для определения вероятности данного
значения
,
нужно
складывать все соответствующие вероятности, находящиеся на пересечении основной таблицы, благоприятствующие наступлению данного значения.
В нашем примере с.в.принимает
всего три различных значения
.
Здесь первое значение (
)
соответствует произведению
из второй строки и
из первого столбца, поэтому на их
пересечении находится вероятностное
число
аналогично
которое
получено из суммы вероятностей,
находящихся на пересечениях соответственно
первой строки и первого столбца (0,15 ;
0,40; 0,05) и одно значение
,
которое находится на пересечении второй
строки и второго столбца, и наконец,
,
которое находится на пересечении второй
строки и третьего столбца.
Из нашей таблицы находим:
Находим корреляционный момент, используя формулу (38):
Находим коэффициент корреляции по формуле (41)
Таким образом, отрицательная корреляция.
Упражнение. Закон распределения дискретной с.в. задан таблицей
| |||
|
|
|
|
|
|
|
Найти коэффициент корреляции
Рассмотрим пример, где окажется две зависимые случайные величины могут бытьнекоррелированными.
Пример 2.
Двумерная случайная величина
)
задана функцией плотностью
Докажем, что
и
зависимые
,
нонекоррелированные
случайные величины.
Решение.
Воспользуемся ранее
вычисленными плотностями распределения
составляющихи
:
Так
как
,то и
зависимые
величины. Для того, чтобы доказать
некоррелированность
и
,
достаточно убедиться в том, что
Найдем корреляционный момент по формуле:
Поскольку дифференциальная функция
симметрична относительно
оси OY
,
то
аналогично
,
в силу симметрии
относительно оси OX
.
Поэтому,
вынося
постоянный множитель
Внутренний интеграл равен
нулю (подынтегральная функция нечетна,
пределы интегрирования симметричны
относительно начала координат),
следовательно,
,
т.е. зависимые случайные величины
и
между собой некоррелируют.
Итак, из коррелированности двух случайных величин следует их зависимость, но из некоррелированности ещё нельзя заключить о независимости этих величин.
Однако, для нормально распределённых с.в. такой вывод является исключением, т.е. из некоррелированности нормально распределенных с.в. вытекает их независимость .
Этому вопросу посвящается следующий пункт.
Для описания системы двух случайных величин, кроме математических ожиданий и дисперсий составляющих пользуются и другими характеристиками, к числу которых относятся корреляционный момент икоэффициент корреляции (кратко было упомянуто в конце Т.8.п.8.6).
Корреляционным моментом (иликовариацией, или моментом связи ) двух случайных величинX иY называется м. о. произведения отклонений этих величин (см. равенство (5) п. 8.6):
Следствие 1. Длякорреляционного момента с.в. X иY также справедливы равенства:
,
где соответствующие централизованные с.в.X иY (см. п.8.6.).
При
этом: если
-
двумерная д.с.в., то ковариация вычисляется
по формуле
(8)
;
если
-
двумерная н.с.в., то ковариация вычисляется
по формуле
(9)
Формулы (8) и (9) получены на основании формул (6) п.12.1. Имеет место вычислительная формула
(10)
которая выводится из определения (9) и на основании свойств м.о., действительно,
Следовательно, формул (36) и (37) можно переписать в виде
(11)
;
Корреляционный момент служит для характеристики связи между величинами X иY .
Как будет показано ниже, корреляционный момент равен нулю, если X иY являются независимыми;
Следовательно, если корреляционный момент не равен нулю, то X и Y – зависимые случайные величины.
Теорема12.1.
Корреляционный момент
двух независимых случайных величин
X
и
Y
равен нулю,
т.е. для независимых с.в.
X
и
Y
,
Доказательство. Так какX иY независимые случайные величины, то их отклонения
и
т
акже независимы. Пользуясь свойствами
математического ожидания (математическое
ожидание произведения независимых с.
в. равно произведению математических
ожиданий сомножителей,
,
поэтому
Замечание.
Из этой теоремы следует,
что если
то с.в.
X
иY
зависимы и в таких случаях с.в.
X
иY
называюткоррелированными
. Однако из того,
что
не следует независимость с.в.X
иY
.
В этом случае (с.в.X
иY
называютнекоррелированными,
тем
самым из независимости вытекаетнекоррелированность
; обратное
утверждение, вообще говоря, неверно
(см. далее пример 2.)
Рассмотрим основные свойства корреляционного момента.
C войства ковариации:
1.
Ковариация симметрична, т.е.
.
Непосредственно следует из формулы (38).
2. Имеют место равенства:т.е. дисперсия с.в. является ковариацией её с самой собой.
Эти равенства прямо следуют из определения
дисперсии и равенство (38) соответственно
при
3. Справедливы равенства:
Эти
равенства выводятся из определения
дисперсии, ковариации с.в.и
,
свойств 2.
По определению дисперсии (с учётом
централизованности с.в.
)
мы имеем
теперь, на основании (33) и свойств 2 и 3, получим первое (со знаком плюс) свойство 3.
Аналогично, вторая часть свойства3, выводится из равенство
4.
Пустьпостоянные
числа,
тогда справедливы равенства:
Обычно эти свойства называются свойствами однородностью первого порядка и периодичностью по аргументам.
Докажем
первое равенство, при этом будем
использовать свойства м.о.
.
Теорема 12.2. Абсолютное значение корреляционного момента двух произвольных случайных величин X и Y не превышает среднего геометрического их дисперсий: т.е.
Доказательство.
Заметим, чтодля
независимых с.в. неравенство выполняется
(с.м. теорему 12.1.). Итак, пусть с.в.X
и
Y
зависимые.
Рассмотрим стандартные с.в.и
и вычислим дисперсию с.в.
с учётом свойства 3, имеем: с одной
стороны
С другой стороны
Следовательно,
с учётом того, что
и
-
нормированные (стандартизированные)
с.в., то для них м.о. равна нулю, а дисперсия
равна 1, поэтому, пользуясь свойством
м.о.
получим
а
следовательно, на основании того, что
получим
Отсюда следует, что т.е.
=
Утверждение доказано.
Из определения и свойства ковариации
следует, что она характеризует и степень
зависимости с.в., и их рассеяния вокруг
точки
Размерность ковариации равна произведению
размерностей случайных величинX
иY
. Другими словами,
величина корреляционного момента
зависит от единиц измерения случайных
величин. По этой причине для одних и тех
же двух величинX
иY
,
величина корреляционного момента
будет иметь различные значения в
зависимости от того, в каких единицах
были измерены величины.
Пусть, например, X
и Y
были измерены в
сантиметрах и
;
если измерить X
иY
в миллиметрах,
то
Эта особенность корреляционного момента
и есть недостатком этой числовой
характеристики, так как сравнение
корреляционных моментов различных
систем случайных величин становится
затруднительным.
Для того чтобы устранить этот недостаток, вводят новую числовую характеристику- - «коэффициент корреляции ».
Коэффициентом корреляции
случайных величин
и
называют отношение корреляционного
момента к произведению средних
квадратических отклонений этих величин:
(13)
.
Так как размерность
равна произведению размерностей величин
и
,
имеет размерность величины
σ y
имеет размерность величины
,
то
есть просто число (т.е. «безразмерная
величина»
). Таким образом, величина
коэффициента корреляции не зависит от
выбора единиц измерения с.в., в этом
состоитпреимущество
коэффициента
корреляции перед корреляционным
моментом.
В Т.8. п.8.3 нами было введено понятие
нормированной
с.в.,
формула (18), и доказана теорема о том,
что
и
(см.
там же теорема 8.2.). Здесь докажем следующее
утверждение.
Теорема 12.3.
Длялюбых двух случайных
величин
и
справедливо
равенство
.Другими словами, коэффициент корреляции
любых двух с
.в
.X
и
Y
равно
корреляционному моменту их соответствующих
нормированных
с.в.
и
.
Доказательство.
По определениюнормированных случайных величини
и
.
Учитывая свойство математического ожидания: и равенство (40) получим
Утверждение доказано.
Рассмотрим некоторые часто встречающие свойства коэффициента корреляции.
Свойства коэффициента корреляции:
1. Коэффициент корреляции по абсолютной величине непревосходит 1, т.е.
Это свойство прямо следует из формулы (41) - определения коффициента корреляции и теоремы 13.5. (см. равенство (40)).
2. Если случайные величиныи
независимы,
токоэффициент корреляции
равен нулю, т.е.
.
Это свойство является прямым следствием равенства (40) и теоремы 13.4.
Следующее свойство сформулируем в виде отдельной теоремы.
Теорема 12.4.
Если
с.в.
и
между
собой связаны линейной функциональной
зависимостью, т.е.
то
при этом
и
наоборот, если
,
то
с.в.
и
между собой связаны линейной функциональной
зависимостью, т.е. существуют постоянные
и
такие, что имеет место равенство
Доказательство.
Пусть
тогда
на основании
свойства 4 ковариации, имеем
и поскольку, , поэтому
Следовательно,
.
Равенство в одну сторону получено. Пусть
далее,
,
тогда
следует рассматривать два
случая:1)
и
2)
Итак, рассмотрим первый случай. Тогда
по определению
и
следовательно из равенства
,
где
.
В нашем случае
,
поэтому из равенства (см. доказательство
теоремы 13.5.)
=
,
получаем, что
,
значит
постоянна.
Так как
и поскольку,
то
действительно,
.
Следовательно,
.
Аналогично,
показывается, что для
имеет место (проверьте самостоятельно!)
,
.
Некоторые выводы:
1. Если
и
независимыес.в., то
2. Если с.в.и
между
собой связаны линейно, то
.
3. В остальных случаях
:
В этом случае говорят, что с.в.и
связаны между собойположительной
корреляцией,
если
в случаях же
отрицательной
корреляцией
. Чем ближе
к единице, тем больше оснований считать,
чтос.в.
и
связаны линейной зависимостью.
Отметим, что корреляционные моменты и дисперсии системы с.в. обычно задаются корреляционной матрицей :
.
Очевидно, что определитель корреляционной матрицы удовлетворяет:
Как уже было отмечено, если две случайные величины зависимы, то они могут быть как коррелированными , так инекоррелированными. Другими словами, корреляционный момент двух зависимых величин может бытьне равен нулю , но может иравняться нулю.
Пример 1. Закон распределения дискретной с.в.задан таблицей
| |||
|
|
|
|
|
|
|
Найти
коэффициент корреляции
Решение.
Находим законы распределения
составляющихи
:
Теперь вычислим м.о. составляющих:
Этих
величин можно было находить на основании
таблицы распределения с.в.
Аналогично,
находите
самостоятельно.
Вычислим дисперсии составляющих при это будем пользоваться вычислительной формулой:
Составим
закон распределения
,
а затем найдём
:
При составлении таблицы закона распределения следует выполнять действия:
1) оставить лишь различные значения
всевозможных произведений
.
2) для определения вероятности данного
значения
,
нужно
складывать все соответствующие вероятности, находящиеся на пересечении основной таблицы, благоприятствующие наступлению данного значения.
В нашем примере с.в.принимает
всего три различных значения
.
Здесь первое значение (
)
соответствует произведению
из второй строки и
из первого столбца, поэтому на их
пересечении находится вероятностное
число
аналогично
которое получено из суммы вероятностей,
находящихся на пересечениях соответственно
первой строки и первого столбца (0,15 ;
0,40; 0,05) и одно значение
,
которое находится на пересечении второй
строки и второго столбца, и наконец,
,
которое находится на пересечении второй
строки и третьего столбца.
Из нашей таблицы находим:
Находим корреляционный момент, используя формулу (38):
Находим коэффициент корреляции по формуле (41)
Таким образом, отрицательная корреляция.
Упражнение. Закон распределения дискретной с.в. задан таблицей
| |||
|
|
|
|
|
|
|
Найти коэффициент корреляции
Рассмотрим пример, где окажется две зависимые случайные величины могут бытьнекоррелированными.
Пример 2.
Двумерная случайная величина
)
задана функцией плотностью
Докажем, что
и
зависимые
,
нонекоррелированные
случайные величины.
Решение.
Воспользуемся ранее
вычисленными плотностями распределения
составляющихи
:
Так
как
,то и
зависимые
величины. Для того, чтобы доказать
некоррелированность
и
,
достаточно убедиться в том, что
Найдем корреляционный момент по формуле:
Поскольку дифференциальная
функция
симметрична относительно
оси OY
,
то
аналогично
,
в силу симметрии
относительно оси OX
.
Поэтому, вынося постоянный множитель
Внутренний интеграл равен
нулю (подынтегральная функция нечетна,
пределы интегрирования симметричны
относительно начала координат),
следовательно,
,
т.е. зависимые случайные величины
и
между собой некоррелируют.
Итак, из коррелированности двух случайных величин следует их зависимость, но из некоррелированности ещё нельзя заключить о независимости этих величин.
Однако, для нормально распределённых с.в. такой вывод является исключением, т.е. из некоррелированности нормально распределенных с.в. вытекает их независимость .
Этому вопросу посвящается следующий пункт.