Мегаобучалка Главная | О нас | Обратная связь


Оценка параметров нелинейных моделей



2015-11-27 1039 Обсуждений (0)
Оценка параметров нелинейных моделей 0.00 из 5.00 0 оценок




 

Нелинейные уравнения регрессии можно разделить на два класса:

– уравнения, которые с помощью замены переменных можно привести клинейному виду в новых переменных x',y'

 

y a b x ; (2.15)

 

– уравнения, для которых это невозможно. Назовем их внутренне нели-нейными.

 

В первом случае, уравнения регрессии преобразуются к линейному виду с помощью введения новых (линеаризующих) переменных x',y'. При этом пред-варительно формируются массивы значений {(x'i,y'i),i= 1, …,n}. В последую-щем, после определения параметров линейного уравнения регрессии с помо-щью обратного преобразования можно получить параметры исходного уравне-ния регрессии, представляющие интерес для исследователя.

 

Линеаризующие преобразования для некоторых нелинейных моделей при-ведены в таблице 2.2.

 

  Линеаризующие преобразования Таблица 2.2  
     
         
Зависимость Формула Преобразование Зависимость ме-  
          жду параметрами  
    b y y a a  
Гиперболическая y a   1  
x x b b  
    x  
           
Логарифмическая y a b ln x y y a a  
x ln x b b  
       
Степенная yˆ a xb y ln y ln a a  
x ln x b b  
       
Экспоненциальная yˆea b x y ln y a a  
x x   b b  
         
Показательная ŷ = a·bx, y ln y ln a a  
x x   ln b b  
         

 

Для оценки параметров внутренне нелинейных зависимостей также можно применить метод наименьших квадратов и определять оптимальные значения параметров а и b исходя из условия (2.8) или (2.9). Но в данном случае условия (2.10) уже не являются линейными алгебраическими уравнениями относительнопараметров а и b, поэтому величины параметров а и b удобнее определять непо-средственно из условия (2.9) как значения, доставляющие минимум величине S.

 

Итерационную процедуру минимизации S в общем виде можно предста-вить в виде следующих последовательных шагов.

 

1. Задаются некоторые «правдоподобные» начальные (исходные) значенияа0иb0параметров а иb.


 

2. Вычисляются теоретические значенияŷi = f(xi) с использованием этихзначений параметров.

3. Вычисляются остаткиеi = ŷiyiи сумма квадратов остатков

S yˆi yi2.

4. Вносятся изменения в одну или более оценку параметров.

5. Вычисляются новые теоретические значения ŷi, остатки еi и S.

 

6. Если произошло уменьшение S, то новые значения оценок используются

 

в качестве новой отправной точки.

7. Шаги 4, 5 и 6 повторяются до тех пор, пока не будет достигнута ситуа-ция, когда величину S невозможно будет улучшить (в пределах заданной точ-ности).

 

8. Полученные на последнем шаге значения параметров а и b являются оценками параметров уравнения регрессии, полученными по нелинейным ме-тодом наименьших квадратов.

Конкретные методы минимизации S отличаются способом выбора новых измененных значений оценок параметров.

 

Качество оценок МНК линейной регрессии. Теорема Гаусса-Маркова

 

При использовании полученных различными способами оценок парамет-ров уравнения регрессии (2.6) важно быть уверенными, являются ли они «луч-шими» среди всех остальных в некотором смысле. Ответ на этот вопрос дает теорема Гаусса-Маркова, согласно которой оценки параметров линейной рег-рессии, полученные методом наименьших квадратов, будут несмещенными и эффективными (т. е. будут иметь наименьшую дисперсию) в классе линейных несмещенных оценок при выполнении четырех условий, известных как усло-вия Гаусса-Маркова.

 

Эти условия принимаются в качестве основных предпосылок регрессион-ного анализа.

 

1-е условие Гаусса-Маркова: математическое ожидание случайного члена

εiравно нулю в любом наблюдении    
М(εi) = 0. (2.16)  
2-е условие Гаусса-Маркова: дисперсия случайного членаεiпостоянна для  
всех наблюдений    
(2.17)  
D(i).  

3-е условие Гаусса-Маркова: значения случайного члена в любых наблю-дениях εi и εj не коррелируют между собой

Cov(εi, εj) = 0 (i≠j). (2.18)
Это условие с учетом того, что М(εi) =М(εj) = 0 принимает вид  
M(εi,εj) = 0 (i ≠ j). (2.19)
4-е условие Гаусса-Маркова: случайный член должен быть распределен
независимо от объясняющих переменных xi  
Cov(xi, εi) = M (xi, εi) = 0, (2.20)
где было учтено, что М(εi) = 0.  

 

Следует сказать, что последнее условие заведомо выполняется, если объясняющие переменные xi считаются детерминированными величинами.

Выполнение 4- го условия Гаусса-Маркова обеспечивает несмещенность оценки параметра b.

 

Выполнение 1-го и 4- го условий Гаусса-Маркова обеспечивает несмещен-ность оценки параметра а.

 

Нарушение одного из условий Гаусса-Маркова приводит к нарушению эффективности оценок, т. е. в классе несмещенных оценок можно найти такие, которые имеют меньшую дисперсию.

В регрессионном анализе обычно делается еще одна предпосылка о нор-мальности распределения случайного члена, что позволяет выполнить количе-ственную оценку точности полученных оценок параметров (2.13).

 

После построения модели необходимо вычислить значения остатков еi и проверить выполнение условий Гаусса-Маркова, так как их нарушение снижает качество модели. Если условия нарушаются, то следует модернизировать мо-дель соответствующим образом. Эти вопросы будут рассмотрены в 3 разделе.

 



2015-11-27 1039 Обсуждений (0)
Оценка параметров нелинейных моделей 0.00 из 5.00 0 оценок









Обсуждение в статье: Оценка параметров нелинейных моделей

Обсуждений еще не было, будьте первым... ↓↓↓

Отправить сообщение

Популярное:
Как выбрать специалиста по управлению гостиницей: Понятно, что управление гостиницей невозможно без специальных знаний. Соответственно, важна квалификация...
Как распознать напряжение: Говоря о мышечном напряжении, мы в первую очередь имеем в виду мускулы, прикрепленные к костям ...



©2015-2024 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (1039)

Почему 1285321 студент выбрали МегаОбучалку...

Система поиска информации

Мобильная версия сайта

Удобная навигация

Нет шокирующей рекламы



(0.007 сек.)