Краткие ответы на вопросы № 1-71 по курсу "Статистика" (Определение статистики как науки. Методы контроля за полнотой и достоверностью данных стат наблюдения), страница 27

Коэффициенты ассоциации и контингенции. Они используются для измерения тесноты связи, укладывающейся в четырёхпольную таблицу (2×2) (в пределах альтернативных признаков). Пример:

Болели гриппом

Не болели гриппом

Итого

Принимали сыворотку

a

b

Не принимали сыворотку

c

d

Итого

В клетках таблицы приводятся частоты.

Коэф-т ассоциации определяется так:

rасоц.=(a*d – c*b):(a*d + b*c)

Относительно значимая характеристика частоты связи, если rасоц>=0,5

Коэф-т контингенции:

rконт=(a*db*c):√(a+b)*(a+c)*(b+d)*(c+d)

rконт>=0,2;то он более жёсткий.

Если каждый из качественных признаков состоит из более чем 2-х групп, то в подобных случаях для определения тесноты связи применяется коэффициент взаимной сопряжённости К. Пирсона. Этот коэф-т определяется по формуле:

C=√φ2:(1+φ2)    (это корень квадратный, кто не понял)

  φ2показатель взаимной сопряжённости.

Порядок заполнения клеток корелляционной таблицы исчисляется так:

1)  определяется квадрат частот каждой клетки;

2)  внизу справа в каждой клетке записываются частные отделения квадратов частот на суммы частот по каждому из столбцов;

3)  сумма значений (n2) рассчитывается по строкам;

4)  частоты отделения найденных сумм по строкам на итог частот по строкам найдём значения Тi

5)  сумма чисел последнего столбца без единицы и равна φ2

φ2=∑Ti – 1

C=√ φ2:((к1 – 1)*(к2 – 1))

Для определения наличия связи применяется (исполь-ся) коэф-т Фехнера, исчисляемый по формуле:

Кср=(С – Н): (С + Н)

где С – совпадение знаков значений отклонений значений как результативного, так и факторного признаков от среднеарифметического значения, Н – несовпадения знаков отклонений.

64 Уравнения регрессии. Расчёт параметров уравнений регрессии.

Важнейшим условием корелляционно-регресс. Анализа явл-ся наличие качественно-однородных совокупностей явлений. Только в таком случае характер связи м/у признаками будет достаточно устойчивым. Корелляц. Зависимость (неполная) может быть выявлена и количественно измерена только на основе обобщения данных по качественно-однородной совокупности. Простейшим римером кореллц. связи м/у признаками явл-ся уравнение прямой (линейная зависимость) вида:

                                                            ŷ=a0+a1x

Если а1>0, то функция возрастающая, если а1<0, то ф-я убыв-я. У – значение результативного признака, Х – значение факторного признака, а1 и а0 – параметры уравнения, кот-е нужно определить, а0 – свободный член уравнения, а1 – коэф-т регрессии, показывающий, как в среднем (количественно) изменяется признак-результат при изменении признака-фактора(Х) на единицу своего измерения. ŷ – выровненные(теоретические) значения признака-результата.

Ур-е регрессии. Параметры уравнения (в данном случае прямолинейной регрессии) а0 и а1 нах-ся по способу метода наименьших квадратов, т.е. сумма квадратов отклонений

∑(У – Ŷх)2→min.

Параметры уравнения прямолинейной регрессии найдём, приравняв частные производные к нулю, т.е. df:da0=0; df:da1=0. (: -это черта дроби, кто не понял).

∑(У – а0 – а1х)2=0

2∑(У – а0 – а1х)*(-1)=0

-∑У + nа0 + а1∑Х=0

В результате преобразований получим первое нормальное уравнение:

nа0 + а1∑Х=∑У

df:da1=0

∑(У – а0 – а1х)2/=0

2(У – а0 – а1х)*(-х)=0

-∑УХ + а0∑Х + а1∑Х2=0

а0∑Х + а1∑Х2=∑УХ

Т.о. система нормальных уравнений примет вид:

0 + а1∑Х=∑У

{ а0∑Х + а1∑Х2=∑УХ

Используя способ определителя а1=(∑У∑Х2 - ∑УХ∑Х) : (n∑Х2 - ∑Х∑Х)

а1=(n∑ХУ - ∑Х∑У) : (n∑Х2 -   ∑Х∑Х)

Многообразие форм связи (зависимости) м/у признаками приводит к тому, что уравнение прямолинейной регрессии не может с достаточной степенью точности измерить характер этих связей, т.к. при линейной зависимости значения результативного признака  изменяются пропорционально изменению факторных признаков (абсолютный прирост в данном случае постоянен), однако возможны случаи, когда с изменением признака-фактора меняется не только признак-результат, но и его прирост. Рассмотрим следующие варианты нелинейных форм зависимости: