Теснота корреляционной зависимости. Коэффициент корреляции, его свойства.

Математика

0


Подпишитесь на бесплатную рассылку видео-курсов:

Ответ студента Наталья из группы Пб-44-13/3

Корреляция (от лат. correlatio — соотношение, взаимосвязь), корреляционная зависимость — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин. Корреляционной связью называют важнейший частный случай статистической связи, который состоит в том, что разным значениям одной переменной соответствуют различные средние значения другой. С изменением значения признака х закономерным образом изменяется среднее значение у. Поскольку корреляционная связь является статистической, первым условием возможности её изучения является общее условие всякого статистического исследования: наличие данных по достаточно большой совокупности явлений. Вторым условием изучения корреляционной связи служит достаточно качественная однородность совокупности. Третьим условием является необходимость подчинения распределения совокупности по результативному и факторным признакам нормальному закону. На практике эта предпосылка чаще всего выполняется приближенно, но и тогда получают неплохие результаты статистического изучения. Изучение корреляционной связи имеет 2 цели: измерение параметров уравнения, выражающего связь средних значений зависимой переменной со значениями независимой переменной. измерение тесноты связи двух (или большего числа) признаков между собой. В статистике принято различать следующие зависимости: Парная корреляция - связь между 2 признаками (результативным и факторным или двумя факторными) Частная корреляция - зависимость между результативным и одним факторным признаками при фиксированном значении других факторных признаков. Множественная корреляция - зависимость результативного и двух и более факторных признаков, включенных в исследование. Для характеристики корреляционной зависимости между случайными величинами ведем понятие коэффициента корреляции. Если Х и У являются независимыми случайными величинами, то М(ХУ) =М(Х)М(У). Если же Х и У зависимые, то М(ХУ) ¹ М(Х)М(У). За меру зависимости Х и У принята безразмерная величина r, определяемая соотношением r называется коэффициентом корреляции. Случайные величины Х и У называются некоррелированными, если r =0, и коррелированными, если r¹ 0. Пример1. Независимые СВ Х и У некоррелированные, т.к. r =0 (числитель равен нулю). Пример2. Пусть между Х и У линейная зависимость, т.е. У = АХ +В. Подставляя вместо У его выражение через Х и пользуясь свойствами математического ожидания получим r =1. Свойства коэффициента корреляции: 1. Если Х и У независимые СВ, то r =0; 2. -1£ r £1 .При этом, если |r| =1, то между Х и У функциональная , а именно линейная зависимость; 3. r характеризует относительную величину отклонения М(ХУ) от М(Х)М(У), и т.к. отклонение имеет место только для зависимых величин, то r характеризует тесноту зависимости.


Нужно высшее
образование?

Учись дистанционно!

Попробуй бесплатно уже сейчас!

Просто заполни форму и получи доступ к нашей платформе:




Получить доступ бесплатно

Ваши данные под надежной защитой и не передаются 3-м лицам


Другие ответы по предмету

Направление выпуклости графика,  его связь со вто...
Направление выпуклости графика, его связь со вто...
Функция комплексного переменного (ФКП).
Функция комплексного переменного (ФКП).
Определенный интеграл:  определение,  геометричес...
Определенный интеграл: определение, геометричес...
Прямые и плоскости в пространстве.  Различные вид...
Прямые и плоскости в пространстве. Различные вид...
Вариационный,  статистический и интервальный ряд.
Вариационный, статистический и интервальный ряд.