Методы устранения автокорреляции
Основными причинами наличия случайного члена в модели являются несовершенные знания о причинах и взаимосвязях, определяющих то или иное значение зависимой переменной. Поэтому свойства случайных отклонений, в том числе и автокорреляция, в первую очередь зависят от выбора формулы зависимости и состава объясняющих переменных. Так как автокорреляция чаще всего вызывается неправильной спецификацией модели, то необходимо прежде всего скорректировать саму модель. Возможно, автокорреляция вызвана отсутствием в модели некоторой объясняющей переменной. Следует попытаться определить данный фактор и учесть его в уравнении регрессии. Также можно попробовать изменить форму зависимости (например, линейную на лог-линейную, линейную на гиперболическую и т.д.). Однако если все разумные процедуры изменения спецификации модели, на ваш взгляд, исчерпаны, а автокорреляция имеет место, то можно предположить, что она обусловлена какими-то внутренними свойствами ряда . В этом случае можно воспользоваться авторегрессионным преобразованием. В линейной регрессионной модели либо в моделях, сводящихся к линейной, наиболее целесообразным и простым преобразованием является авторегрессионная схема первого порядка AR(1). Для простоты изложения AR(1) рассмотрим модель парной линейной регрессии: (5.1) Тогда наблюдениям и соответствуют формулы: (5.2) (5.3) Пусть случайные отклонения подвержены воздействию авторегрессии первого порядка: (5.4) где , – случайные отклонения, удовлетворяющие всем предпосылкам МНК, а коэффициент известен. Вычтем из (5.2) соотношение (5.3), умноженное на : Примем , , , и с учетом (5.4) получим: (5.6) Так как по предположению коэффициент известен, то, очевидно, , , вычисляются достаточно просто. Однако способ вычисления и приводит к потере первого наблюдения. Число степеней свободы уменьшится на единицу, что при больших выборках не так существенно, но при малых выборках может привести к потере эффективности. Эта проблема обычно преодолевается с помощью поправки Прайса-Винстена: (5.7) Рассмотренное авторегрессионное преобразование может быть обобщено на произвольное число объясняющих переменных, т.е. использовано для уравнения множественной регрессии. На практике значение коэффициента обычно неизвестно и его необходимо оценивать. Существует несколько методов оценивания. Рассмотрим наиболее употребляемые. 1. Определение на основе статистики Дарбина-Уотсона Статистика Дарбина-Уотсона тесно связана с коэффициентом корреляции между соседними отклонениями через соотношение: (5.8) Тогда в качестве оценки коэффициента может быть взят коэффициент . Из (5.8) имеем: (5.9) Этот метод оценивания рекомендуется применять при большом числе наблюдений. В этом случае оценка параметра будет достаточно точной. Метод Хилдрета-Лу По данному методу регрессия (5.5) оценивается для каждого возможного значения из отрезка [-1;1] с любым шагом (например, 0,001; 0,01 и т.д.). Величина , дающая наименьшую стандартную ошибку регрессии, принимается в качестве оценки коэффициента . И значения и оцениваются из уравнения регрессии (5.5) именно с данным значением .
Популярное: Почему стероиды повышают давление?: Основных причин три... Генезис конфликтологии как науки в древней Греции: Для уяснения предыстории конфликтологии существенное значение имеет обращение к античной... Модели организации как закрытой, открытой, частично открытой системы: Закрытая система имеет жесткие фиксированные границы, ее действия относительно независимы... Почему человек чувствует себя несчастным?: Для начала определим, что такое несчастье. Несчастьем мы будем считать психологическое состояние... ©2015-2024 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (1063)
|
Почему 1285321 студент выбрали МегаОбучалку... Система поиска информации Мобильная версия сайта Удобная навигация Нет шокирующей рекламы |