У розділі розглядаються деякі проблеми, що часто виникають при практичному використанні багатомірних регресійних моделей.
На практиці нерідко приходиться зіштовхуватися із ситуацією, коли регресія є "поганий", тобто t-статистики більшості оцінок малі, що свідчить про незначимість відповідних незалежних перемінних (регрессоров). У той же час F-статистика може бути досить великий, що говорить про значимість регресії в цілому. Характерним є приклад з попереднього розділу. Одна з можливих причин такого явища зветься мультиколлинеарности і виникає при наявності високої кореляції між регрессорами.
Регресійні моделі є досить гнучким інструментом, що дозволяє, зокрема, оцінювати вплив якісних ознак (підлога, професія, наявність дітей і т.п.) на досліджувану перемінну. Це досягається введенням у число регрессоров так званих фіктивних перемінних, приймаючих, як правило, значення 1 чи 0 у залежності від чи наявності відсутності відповідного ознаки в черговому спостереженні. З формальної точки зору фіктивні перемінні нічим не відрізняються від інших регрессоров. Найбільш складне і цікаве питання, що виникає при їхньому використанні, — це правильна інтерпретація одержуваних оцінок.
У цьому розділі ми також розглянемо задачу перебування приватної кореляції між перемінними і так називану проблему специфікації моделі.
Однією з умов класичної регресійної моделі є припущення про лінійну незалежність пояснюючих перемінних, що означає лінійну незалежність стовпців матриці регрессоров Х чи (еквівалентно), що матриця має повний ранг k. При порушенні цієї умови, тобто коли один зі стовпців матриці Х є лінійна комбінація інших стовпців, говорять, що має місце повна коллинеарность. У цій ситуації не можна побудувати MHK-оцінку вектора параметрів , що формально випливає з вырожденности матриці ХТХ і неможливості вирішити систему нормальних рівнянь. Неважко також зрозуміти і змістовний зміст цього явища. Справа в тім що, ті самі спостереження можуть бути пояснені різними наборами коефіцієнтів . Ця ситуація тісно зв'язана з проблемою идентифицируемости системи, про що більш докладно буде говоритися пізніше. Якщо є повна коллинеарность, то можна виділити в матриці Х максимальну лінійно незалежну систему стовпців і, видаливши інші стовпці, провести нову регресію.
На практиці повна коллинеарность зустрічається винятково рідко. Набагато частіше приходиться зіштовхуватися із ситуацією, коли матриця Х має повний ранг, але між регрессорами мається високий ступінь кореляції, тобто коли матриця , говорячи нестрого, близька до вырожденной. Тоді говорять про наявність мультиколлинеарности. У цьому випадку МНК-оценка формально існує, але володіє "поганими" властивостями.
Мультиколлинеарность може виникати в силу різних причин. Наприклад, трохи незалежних перемінних можуть мати загальний часовий тренд, щодо якого вони роблять малі коливання. Зокрема, так може случитися, коли значення однієї незалежної перемінної є датованими значеннями іншої.
Виділимо деякі найбільш характерні ознаки мультиколлинеарности.
1. Невелика зміна вихідних даних (наприклад, додавання нових спостережень) приводить до істотної зміни оцінок коефіцієнтів моделі.
2. Оцінки мають великі стандартні помилки, малу значимість, у той час як модель у цілому є значимої (високе значення коефіцієнта детермінації R2 і відповідної F-статистики).
3. Оцінки коефіцієнтів мають неправильні з погляду теорії чи знаки невиправдано великі значення.
Що ж робити, якщо по всіх ознаках мається мультиколлине-арность? Однозначної відповіді на це питання немає.
У недосвідченого дослідника при зіткненні з проблемою мультиколлинеарности може виникнути природне бажання відкинути "зайві" незалежні перемінні, котрі, можливо, служать її причиною. Однак варто пам'ятати, що при цьому можуть виникнути нові труднощі. По-перше, далеко не завжди ясно, які перемінні є зайвими в зазначеному змісті. Мультиколлинеарность означає лише приблизну лінійну залежність між стовпцями матриці X, але це не завжди виділяє "зайві" перемінні. По-друге, у багатьох ситуаціях видалення яких-небудь незалежних перемінних може значно відбитися на змістовному змісті моделі. Нарешті, відкидання так званих істотних перемінних, тобто незалежних перемінних, котрі реально впливають на досліджувану залежну перемінну, приводить до смещенности МНК-оценок.
Як правило, незалежні перемінні в регресійних моделях мають "безупинні" області зміни (національний доход, рівень безробіття, розмір зарплати і т.п.). Однак теорія не накладає ніяких обмежень на характер регрессоров, зокрема, деякі перемінні можуть приймати всего два чи значення, у більш загальній ситуації, дискретна безліч значень. Необхідність розглядати такі перемінні виникає досить часто в тих випадках, коли потрібно брати до уваги яка-небудь якісна ознака. Наприклад, при дослідженні залежності зарплати від різних факторів може виникнути питання, чи впливає на її розмір і, якщо так, те в якому ступені, наявність у працівника вищого утворення. Також можна поставити запитання, чи існує дискримінація в оплаті праці між чоловіками і жінками. У принципі можна оцінювати відповідні рівняння усередині кожної категорії, а потім вивчати розходження між ними, але введення дискретних перемінних дозволяє оцінювати одне рівняння відразу по всіх категоріях.
Якісні розходження можна формалізувати за допомогою будь-які перемінні, приймаючі два значення, а не обов'язково значення 0 чи 1. У эконометрической практиці майже завжди використовують лише фіктивні перемінні типу "0-1", оскільки в цьому випадку інтерпретація виглядає найбільше просто.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.