Модель парной линейной регрессии. Точечное и интегральное прогнозирование, страница 4

                                        dy    (10 + 2.8 11)⋅ − (10 + 2.8 10)⋅ 40.8−38

 = = = 0.07. y (10 + 2.8 10)⋅ 38

Как видно из полученных результатов, увеличение затрат на рекламу на 10 % влечет за собой среднее увеличение оборота на 7 %.

3.5. Свойства МНК-оценок коэффициентов регрессии

Как уже отмечалось выше, оценки параметров θˆ0 и θˆ1 являются непрерывными случайными величинами, которые обладают всеми характеристиками случайных величин. Сейчас нас будут интересовать такие характеристики как математическое ожидание и дисперсия.

Нетрудно заметить, что математическое ожидание оценок параметров совпадает с истинными значениями этих параметров, т.е. МНК-оценки являются несмещенными:

                                                            N                                             N

∑(xi x)( yi y) ∑(xi x E y) ( i y)

                        E( )θˆ1 = Ei=1 N               2       = i=1   N                    2            =

                                                               ∑(xi x)           ∑(xi x)

                                                                i=1                                         i=1

                                    N                                                                             N

                          N          1,

N

                                                          ∑(xi x)2                                          ∑(xi x)2

                                                          i=1                                                             i=1

                Eˆ0) = E y( − xθˆ1) = E y( ) − xE(θ θ θ θ θˆ1) = 0 + 1x 1x = 0.

Для дальнейшего удобства изложения введем дополнительное

обозначение:

(x x)

                                                                     zi = N      i                  ,

∑(xi x)2

k=1

с учетом которого можно легко записать

N

                                                          θˆ1 = ∑zi(yi y).                              (15) 

i=1

Тогда дисперсии оценок будут определяться как

                              ( )ˆ = D∑N zi(yi y) = D∑ ∑N z yi i  = N zi2σ2 = N σ2             , (16) 

                     D θ1

                                                  i=1                             i=1           i=1                      ∑(xi x)2

i=1

                                                                                                                                                                

 D(θˆ0) = D∑N  1 − xz  y  =σ2∑N  1 − xz 2 =σ2 =

                                       i=1 N      i i         i=1 N       i         ∑(xi x) 

                                                                                                                                                   i=1             

N

xi2

                                                         =σ2        Ni=1                  .                            (17) 

N∑(xi x)2

i=1

Как видно из этих соотношений, дисперсии оценок θˆ0 и θˆ1 зависят от дисперсии ошибки σ2 , кроме этого, на точность определения параметров также оказывает влияние и расположение точек, в которых проводились измерения. 

Знание дисперсий оценок позволяет проводить их сравнение по точности – более точным оценкам соответствует меньшая дисперсия. С этой точки зрения МНК-оценки обладают рядом полезных свойств, сформулированных в виде теоремы Гаусса-Маркова [7, 14, 20].

Теорема Гаусса-Маркова. Для регрессионной модели 

                                               yi =θ θ ε0 + 1xi + i , i =1,2,…,N ,

где для случайной ошибки выполнены условия:

                                                       Ei ]= 0, i =1,2,…,N ,

                                             E D     i  1,2,…,N ,

                                                        Eεεi j  = 0, i j