WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     || 2 | 3 | 4 | 5 |   ...   | 12 |
Введение Данное пособие появилось как результат факультатива и спецкурса, прочитанных автором для студентов экономического факультета Новосибирского университета в 1996 г. Пособие состоит из двух самостоятельных разделов.

Раздел I основан на факультативе “Некоторые эконометрические методы” (совместно с Н. Ибрагимовым). Факультатив предназначался в основном для студентов 2-го курса, которые только начинали слушать вводный курс эконометрии. Поэтому для понимания раздела не требуется серьезного знакомства с эконометрической теорией. Исключение составляют дополнительные параграфы, посвященные популярной в настоящее время теме единичных корней и коинтеграции.

Раздел II представляет собой переработанный материал спецкурса “Метод максимального правдоподобия в эконометрии”. Это цельный продвинутый курс, рассчитанный на студентов, хорошо знакомых с классическими эконометрическими методами. Метод максимального правдоподобия составляет теоретическую основу большей части эконометрии. Знание его необходимо для понимания современной экономической литературы. В этом пособии продемонстрировано применение ММП к некоторым базовым видам моделей, что позволяет познакомиться с возможностями метода и научиться основным приемам. Главное внимание уделено теории тестирования и методов оценивания. Полученные навыки должны помочь, если такая необходимость возникнет в ходе исследований, самостоятельно разрабатывать методы оценивания и тестирования для моделей других видов.

Основой для изложения метода максимального правдоподобия и его применений послужила книга R. Davidson & J.G. MacKinnon, Estimation and Inference in Econometrics. Многие подходы и обозначения совпадают. Данное пособие, однако, не является простым переложением этой книги. Книга Дэвидсона и Мак-Киннона предназначена для изучения курса эконометрии в целом, а пособие делает акцент именно на одном этом методе. Кроме того, при написании пособия использованы другие учебники и оригинальные статьи из научных журналов. Поэтому рассматривается ряд тем и методов, которые отсутствуют у Дэвидсона и Мак-Киннона. Материал изложен так, как это было удобнее с точки зрения целей данного пособия. Доказательства основных свойств оценок ММП (состоятельности, асимптотической эффективности и асимптотической нормальности) не приводятся. Их можно найти в учебниках по математической статистике.

Хотя второй раздел ни в коем случае не претендует на математическую строгость, однако является гораздо менее простым, чем первый раздел. Широко используется аппарат матричной алгебры и матричного анализа. Используемые правила матричных операций особо выделены в тексте раздела.

В целом пособие дополняет имеющуюся на русском языке литературу по эконометрическим методам.

Оглавление I. НЕКОТОРЫЕ ЭКОНОМЕТРИЧЕСКИЕ МЕТОДЫ.................................ФУНКЦИОНАЛЬНАЯ ФОРМА РЕГРЕССИОННОЙ МОДЕЛИ.............................................• Тестирование правильности спецификации регрессионной модели............................• Линейные и нелинейные модели......................................................................................• Выбор между альтернативными функциональными формами...................................ФИКТИВНЫЕ ПЕРЕМЕННЫЕ КАК РЕГРЕССОРЫ.......................................................... • Общие соображения.........................................................................................................• Использование фиктивных переменных для проверки однородности наблюдений и прогнозирования..............................................................................................................• Использование фиктивных переменных в моделях с временными рядами...............• Спектральный анализ и регрессия..................................................................................МОДЕЛИ С КАЧЕСТВЕННОЙ ЗАВИСИМОЙ ПЕРЕМЕННОЙ..........................................• Модели с бинарной зависимой переменной..................................................................• Модель выбора. Пробит и логит.....................................................................................• Оценка качества модели и проверка гипотез................................................................• Множественные модели с качественными зависимыми переменными.....................ДИНАМИЧЕСКАЯ СПЕЦИФИКАЦИЯ РЕГРЕССИОННОЙ МОДЕЛИ................................• Модель распределенного лага.........................................................................................• Динамические регрессионные модели. Авторегрессионная модель с распределенным лагом....................................................................................................ИНТЕГРИРОВАННЫЕ ПРОЦЕССЫ, ЛОЖНАЯ РЕГРЕССИЯ И КОИНТЕГРАЦИЯ..............• Стационарные и нестационарные случайные процессы..............................................• Ложная регрессия.............................................................................................................• Тестирование стационарности........................................................................................• Коинтеграция. Регрессии с интегрированными переменными...................................• Оценивание коинтеграционной регрессии: подход Энгла-Грейнджера.....................• Коинтеграция в динамических системах: подход Йохансена.....................................• Литература по единичным корням и коинтеграции.....................................................II. МЕТОД МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ В ЭКОНОМЕТРИИ..................................................................................БАЗОВЫЕ ПОНЯТИЯ....................................................................................................ХАРАКТЕРИСТИКА ММП.



.........................................................................................СВЯЗЬ ММП С МНК. КВАЗИ-МП МЕТОДЫ............................................................СВЯЗЬ ГЕССИАНА И МАТРИЦЫ ВКЛАДОВ В ГРАДИЕНТ С ИНФОРМАЦИОННОЙ МАТРИЦЕЙ.................................................................................................................. • Гессиан и информационная матрица..............................................................................• Матрица вкладов в градиент и информационная матрица..........................................• Вычисление информационной матрицы........................................................................РАСПРЕДЕЛЕНИЕ ГРАДИЕНТА И ОЦЕНОК МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ......• Асимптотическое распределение градиента и оценок максимального правдоподобия..................................................................................................................• Выборочная оценка распределения градиента и оценок максимального правдоподобия..................................................................................................................ЧИСЛЕННЫЕ МЕТОДЫ НАХОЖДЕНИЯ ОЦЕНОК МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ.......................................................................................................ММП И ПРОВЕРКА ГИПОТЕЗ.....................................................................................• Асимптотическое распределение и аcимптотическая эквивалентность трех классических статистик...................................................................................................• Соотношения между статистиками................................................................................МОДЕЛИ С ДИСКРЕТНОЙ ЗАВИСИМОЙ ПЕРЕМЕННОЙ...............................................• Модели с бинарной зависимой переменной (логит и пробит)....................................• Пуассонова регрессия......................................................................................................ОБОБЩЕННЫЙ МЕТОД НАИМЕНЬШИХ КВАДРАТОВ..................................................РЕГРЕССИИ С НЕОДИНАКОВОЙ ДИСПЕРСИЕЙ И ТЕСТИРОВАНИЕ ГЕТЕРОСКЕДАСТИЧНОСТИ..........................................................................................• Взвешенный метод наименьших квадратов..................................................................• Проверка гипотезы о наличии гетероскедастичности известного вида.....................• Регрессия с мультипликативной гетероскедастичностью...........................................НЕЛИНЕЙНАЯ РЕГРЕССИЯ. МЕТОД ГАУССА-НЬЮТОНА.......................................... ОЦЕНИВАНИЕ РЕГРЕССИИ С AR-ОШИБКОЙ............................................................. • Нелинейная регрессия с пропущенным первым наблюдением...................................• Оценивание регрессии с AR(1)-ошибкой полным методом максимального правдоподобия..................................................................................................................РЕГРЕССИЯ С MA-ОШИБКОЙ....................................................................................• Оценивание регрессия с MA(1)-процессом в ошибке полным методом максимального правдоподобия.......................................................................................• Оценивание регрессии с MA-ошибкой нелинейным МНК..........................................РЕГРЕССИЯ С ARCH-ПРОЦЕССОМ В ОШИБКЕ.........................................................ЯКОБИАН ПРЕОБРАЗОВАНИЯ ПЛОТНОСТИ РАСПРЕДЕЛЕНИЯ В ФУНКЦИИ ПРАВДОПОДОБИЯ..................................................................................................... • Функция правдоподобия модели типа = f (Y, 1)......................................................• Преобразование зависимой переменной. Модель Бокса-Кокса................................ТЕСТ НА НОРМАЛЬНОСТЬ........................................................................................ РЕГРЕССИЯ С ОШИБКАМИ ВО ВСЕХ ПЕРЕМЕННЫХ................................................. ВНЕШНЕ НЕ СВЯЗАННЫЕ РЕГРЕССИОННЫЕ УРАВНЕНИЯ.........................................СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ..............................................................• FIML................................................................................................................................• LIML................................................................................................................................ИСПОЛЬЗОВАННАЯ ЛИТЕРАТУРА.....................................................ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ................................................................I. Некоторые эконометрические методы Функциональная форма регрессионной модели Необходимость изменить функциональную форму модели возникает, если неверна одна из следующих гипотез, выполнение которых требуется для того, чтобы обычный метод наименьших квадратов (ОМНК) в применении к регрессионной модели Y i = X i + (i = 1,..., N ) давал хорошие результаты: i 1. Ошибки имеют нулевое математическое ожидание, или, что то же самое, мат. ожидание зависимой переменной является линейной комбинацией регрессоров:

E (i) = 0, E (Y i) = X i.

2. Ошибки гомоскедастичны, т. е. имеют одинаковую дисперсию для всех наблюдений:

V (i2) = E (i2) = 2.

Тестирование правильности спецификации регрессионной модели Если ошибка имеет ненулевое мат.





ожидание, то оценки ОМНК окажутся смещенными. Другими словами, в ошибке осталась детерминированная (неслучайная) составляющая, которая может быть функцией входящих в модель регрессоров, что и означает, что функ• e циональная форма выбрана неверно.

• • • • Заметить эту ошибку спецификации • • • • можно на глаз с помощью графиков ос• • • Z татков по “подозрительным” перемен• • ным: регрессорам и их функциям (в т.

• •• • ч. произведениям разных регрессоров), • • • • • расчетным значениям и их функциям.

• • Остатки дают представления об ошибРис. ках, поэтому они должны в правильно заданной регрессии иметь везде нулевое среднее. Если остатки (e), например, для каких-то значений некоторой переменной Z в среднем больше нуля, а для каких-то – меньше, то это служит признаком неправильно специфицированной модели (см. Рис. 1).

Это, конечно, не все обычно принимаемые гипотезы, а только те, которые интересны с точки зрения рассматриваемой темы.

Похожим образом обнаруживается и гетероскедастичность (отсутствие гомоскедастичности). Она проявляется в том, что разброс остатков меняется в зависимости от некоторой переменной Z (см. Рис. 2) Дисперсия ошибок моe Рис. • жет меняться в зависимости • • от регрессоров и их функций, расчет•• • • • ных значений и их функций. Формаль• Z • • • ный тест можно провести с помощью • • • • • • • вспомогательной регрессии — регрес• • • • сии квадратов остатков по “подозри• тельным” переменным и константе.

Соответствующая статистика — обычная F-статистика для гипотезы о равенстве нулю коэффициентов при всех переменных кроме константы, выдаваемая любым статистическим пакетом.

Ошибки в спецификации функциональной формы обнаруживаются также тестами на автокорреляцию остатков, такими как статистика ДарбинаУотсона, если наблюдения упорядочены по каком-либо признаку, например, по порядку возрастания одного из регрессоров. Понятно, что это тест неформальный.

Линейные и нелинейные модели Линейная форма модели в целом является более предпочтительной. Линейные модели оцениваются более простым методом наименьших квадратов.

При выполнении некоторого набора гипотез оценки ОМНК для линейной модели обладают рядом хороших свойств, не выполняющихся для оценок нелинейной модели, это же относится к распределениям оценок и различных статистик.

В линейной регрессионной модели мат. ожидание зависимой переменной — это линейная комбинация регрессоров с неизвестными коэффициентами, которые и являются оцениваемыми параметрами модели. Такая модель является линейной по виду. В матричной форме ее можно записать как Y = X +.

Не обязательно, чтобы влияющие на Y факторы входили в модель линейно.

Регрессорами могут быть любые точно заданные (не содержащие неизвестных параметров) функции исходных факторов – это не меняет свойств ОМНК. Важно, чтобы модель была линейной по параметрам. Бывает, что модель записана в виде, который нелинеен по параметрам, но преобразованием уравнения регрессии и переобозначением параметров можно привести ее к линейному виду. Такую модель называют внутренне линейной.

Поясним введенные понятия на примерах. Модель Y = + X1X2 + нелинейна по X1 и X2, но линейна по параметрам, и можно сделать замену X = X1X2, так что модель примет линейный вид: Y = + X +. Модель Y = exp ( + x + ) нелинейна по виду, но сводится к линейной логарифмированием обеих частей: lnY = + x +. В этой новой модели зависимой переменной будет уже lnY. Модель Y = (a – 1) (b + X ) + нелинейна по параметрам a и b, но сводится к линейной заменой параметров = (a – 1) b и = a – 1. Тогда Y = + X +.

Для применения метода наименьших квадратов важно, чтобы ошибка была аддитивной, то есть, чтобы зависимая переменная являлась суммой своего математического ожидания и ошибки. Об этом следует помнить, производя преобразования модели. Например, модель Y = X + нельзя преобразовать в линейную по параметрам с аддитивной ошибкой. Аналогичную модель с мультипликативной ошибкой Y = X можно преобразовать к % % % % виду lnY = ln + lnX + ln или Y= + X + где Y = lnY, = ln, X = lnX, = % % % % ln. Однако следует отметить, что вследствие преобразования распределение ошибки изменилось. Если оказывается нормально распределенной, это зна% чит, что имела логнормальное распределение.

Экономическая теория оперирует моделями разных типов. Некоторые из них дают регрессионные уравнения линейного вида, некоторые – нелинейного. Рассмотрим это на примере однородных производственных функций. Самая популярная производственная функция – функция Кобба-Дугласа – легко приводится к линейному виду логарифмированием:

Y = K L1– lnY – lnL = ln + (lnK – lnL), где Y – выпуск продукции, K — капитал, L — труд.

Функция с постоянной эластичностью замены (ПЭЗ) дает внутренне нелинейное уравнение регрессии:

1/ Y = ( K + (1–) L ).

Достаточно гладкую функцию вблизи некоторой точки можно разложить в ряд Тейлора, получив тем самым линейную форму модели. Так, при функция с постоянной эластичностью замены совпадает с функцией КоббаДугласа. Если же приблизить функцию ПЭЗ в точке = 0 разложением в ряд Тейлора до членов первого порядка, то получается так называемая транслоговая производственная функция:

lnY – lnL = ln + (lnK – lnL) + (lnK – lnL)2, где = (1 – ).

Разложение в ряд Тейлора дает полиномиальную форму модели. В полиномиальную регрессионную модель могут входить не только первые степени исходных переменных, но и их одночлены различных степеней: степени этих переменных и члены взаимодействия (произведения степеней двух или более различных переменных).

Pages:     || 2 | 3 | 4 | 5 |   ...   | 12 |










© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.