= exp{– [(y – r(x)]2/2sY2 (1–rXY2)}/ (2p)1/2 sY (1 – rXY2)1/2.
При этом
r(x) = áyñ + (sY /sX) rXY (x – áxñ), (2.1.10)
= sY2rXY2, = sY2 (1 – rXY2).
Тем самым, при нормальном совместном законе распределения случайных величин X и Y регрессия является линейной.
2.2. Оптимальный стохастический прогноз.
Оптимальный стохастический прогноз или оптимальный предиктор случайной величины X в классе всех функций y = f(x) по мере среднеквадратической ошибки (СКО) совпадает с функцией регрессии Y на X.
Действительно, будем искать функцию f(x) предиктора, воспользовавшись МНК, т.е. минимизируя СКО
СКО = ò [y – f(x)]2 Pr(yú x) dy . (2.2.1)
Тогда, записывая условия минимума СКО – ¶ СКО/¶f = 0, получим
¶ СКО/¶ f = ò [y – f(x)] Pr(yú x) dy = 0 .
Отсюда следует
f(x) ò Pr(yú x) dy = ò y Pr(yú x) dy.
Однако, т.к. òPr(yú x)dy = òPr(x, y)dy /Pr(x) = Pr(x)/Pr(x) = 1, то получим
f(x) = ò y Pr(yú x) dy = ò y Pr(x, y) dy /ò Pr(x, y) dy, (2.2.2)
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.