UkrReferat.com
найбільша колекція україномовних рефератів

Всього в базі: 75838
останнє поновлення: 2016-12-03
за 7 днів додано 10

Реферати на українській
Реферати на російській
Українські підручники

$ Робота на замовлення
Реклама на сайті
Зворотній зв'язок

 

ПОШУК:   

реферати, курсові, дипломні:

Українські рефератиРусские рефератыКниги
НазваМетод найменших квадратів (реферат)
АвторPetya
РозділЕкономічна теорія, теорія економічних наук
ФорматWord Doc
Тип документуРеферат
Продивилось10388
Скачало970
Опис
ЗАКАЧКА
Замовити оригінальну роботу

Реферат на тему:

 

Метод найменших квадратів

 

Основні припущення

 

Застосування методу найменших квадратів до загальної лінійної

багатофакторної моделі (3.1) передбачає наявність таких передумов:

 

1) кожне значення випадкової складової рівняння щ, і = 1,2,...,п, є

випадковою величиною і математичне сподівання залишків щ до-рівнює нулю:

 

М(и) = 0;

 

2) компоненти вектора залишків некорельовані (лінійно неза-лежні) між

собою і мають сталу дисперсію:

 

3) пояснюючі змінні (регресори, фактори моделі) некорельовані із

залишками;

 

4) пояснюючі змінні некорельовані між собою.

 

Порушення першої передумови означає, що існує систематичний вплив на

залежну змінну який не враховано в моделі. Таку ситуацію можна

трактувати як помилку специфікації, однак наявність вільно-го члена

моделі дає змогу скоригувати модель так, щоб забезпечити виконання

першої передумови.

 

Друга передумова означає, що залишки моделі є помилками ви-мірювання.

Якщо між компонентами вектора залишків існує кореля-ційна залежність,

таке явище називається автокореляцією. Наявність автокореляції в моделі

свідчить про існування кореляції між послідовними значеннями деякої

незалежної змінної або про неврахо-ваний суттєвий фактор, що впливає на

залежну змінну і не може бути усунений за рахунок вільного члена моделі.

Загальний вплив пояс-нюючих змінних, не врахованих у моделі, може

виявитися також у тому що дисперсія залишків для окремих груп

спостережень зміню-ватиметься. Таке явище називається

гетероскедастичністю. У будь-якому разі порушення другої передумови

впливає на методи оціню-вання параметрів моделі.

 

Наявність залежності між залишками та незалежними змінними найчастіше

пов’язана з тим, що в моделі присутні лагові (затримані в часі) змінні

або вона будується на базі одночасних структурних

 

рівнянь. Для оцінювання параметрів і в цьому разі застосовують інші

методи.

 

Залежність між незалежними змінними може значною мірою впливати на

якість оцінок, отриманих за МНК. Якщо між незалежними змінними моделі

існують тісні лінійні зв'язки, це явище називають мультиколінеарністю.

Моделі, у яких спостерігається мульти-колінеарність, стають надзвичайно

чутливими до конкретного набору даних, до специфікації моделі й мають

значні відхилення від дійсних значень параметрів узагальненої моделі.

 

Крім розглянутих чотирьох передумов важливе значення має припущення про

нормальний розподіл залишків моделі. Це припущення забезпечує нормальний

розподіл коефіцієнтів регресії й дає змогу використовувати відомі

критерії для перевірки статистичних гіпотез відносно отриманих оцінок, а

також визначати їх довірчі інтервали.

 

МНК-оцінки параметрів лінійної регресії та їх основні властивості

 

З теорії ймовірностей відомо (доведено в теоремі Гаусса — Маркова), що

коли виконуються перелічені передумови, то отримані за допомогою МНК

оцінки параметрів регресійного рівняння є незміще-ними, обгрунтованими,

ефективними та інваріантними.

 

Наявність таких властивостей оцінок гарантує, що останні не мають

систематичної похибки (незміщеність), надійність їх підвищується зі

-----> Page:

0 [1] [2]

ЗАМОВИТИ ОРИГІНАЛЬНУ РОБОТУ