DODAJ SOBIE SKRZYDEŁ NA SESJI - ZGARNIJ DWUPAK REDBULLA!
Razem z każdym zakupem Kursów studenckich otrzymujesz kod na odbiór darmowych Red Bulli.

blog

Założenia Klasycznej Metody Najmniejszych Kwadratów. I dlaczego klasycznej?

Joanna Grochowska

Ekonometria Wykład 7

Temat: Klasyczna Metoda Najmniejszych Kwadratów – założenia

 

Wykład ten poświęcony będzie Klasycznej Metodzie Najmniejszych Kwadratów. Możesz oczywiście też się spotkać z nazwą Klasyczny Model Regresji Liniowej, w skrócie KMRL. Obie nazwy są poprane i obie możesz śmiało wykorzystywać.

Przedstawię Ci oraz pokrótce omówię wszystkie podstawowe założenia tej metody. Dotyczą one głównie pewnych własności składnika losowego.

Warto znać te założenia, gdyż bardzo często zagadnienie to pojawia się na egzaminie z ekonometrii, ale nie tylko. Pamiętam dobrze, że wymienienie założeń KMNK trafiło mi się jako jedno z pytań na obronie pracy licencjackiej 🙂

Zatem zapraszam do lektury!

 

 

Zacznę od początku, czyli od samej nazwy. W poprzednim wykładzie omówiona została Metoda Najmniejszych Kwadratów. Jej istotę najbardziej odzwierciedla przykład modelu z dwiema zmiennymi – objaśnianą Y i jedną objaśniającą X. Klasyczna metoda najmniejszych kwadratów to po prostu określenie na wszystkie warunki stosowalności MNK do szacowania wektora bold italic alpha w modelu

bold italic Y space equals space bold italic X bold italic alpha plus bold italic epsilon

Tutaj zajmę się rozpisaniem na części pierwsze założeń Klasycznej Metody Najmniejszych Kwadratów. Są one bardzo istotne, ponieważ dopiero gdy te założenia są spełnione, czyli zebrane dane rzeczywiste do modelu ekonometrycznego posiadają wymiennie poniżej własności, to dopiero wtedy można zbudować model i zastosować metodę najmniejszych kwadratów do estymacji parametrów modelu.

Istnieją oczywiście inne metody estymacji parametrów modelu, mające swoje z góry ustalone „wytyczne”, np. uogólniona metoda najmniejszych kwadratów (UMNK), metoda największej wiarygodności (MNW), metoda regresji dwumianowej, itd.

 

Założenia KMNK są następujące:

  1. Szacowany model ekonometryczny jest liniowy względem parametrów alpha subscript j.
  2. Zmienne objaśniające X subscript i są wielkościami nielosowymi o ustalonych elementach.
  3. Rząd macierzy bold italic X równy jest liczbie szacowanych parametrów, czyli r open parentheses bold italic X close parentheses equals k plus 1.
  4. Liczebność próby jest większa niż liczba szacowanych parametrów, tzn. n space greater or equal than space k plus 1.
  5. Nie występuje zjawisko współliniowości pomiędzy zmiennymi objaśniającymi.
  6. Wartość oczekiwana składnika losowego jest równa zero: for all for t of space E open parentheses epsilon subscript t close parentheses equals 0.
  7. Składnik losowy ma stałą skończoną wariancję  for all for t of space D squared open parentheses epsilon subscript t close parentheses equals sigma squared;
  8. Nie występuje zjawisko autokorelacji składnika losowego, czyli zależności składnika losowego w różnych jednostkach czasu  for all for t not equal to s of space c o v open parentheses epsilon subscript t comma epsilon subscript s space close parentheses equals 0.
  9. Składnik losowy ma n-wymiarowy rozkład normalny: epsilon subscript t space colon space N open parentheses 0 comma sigma squared close parentheses dla t=1,2,…,n.

 

Zauważ, że jest ich sporo.

Być może na swoich zajęciach miałeś ich mniej wypisanych. Na przykład, założenie 4 i 5 wynikają z założenia nr 3, więc mogły być pominięte. Często cztery ostatnie złożenia, dotyczące składnika losowego są ujmowane w jeden podpunkt.

 

Postaram się teraz wyjaśnić bliżej znaczenie każdego z założeń.

 

Założenie 1. Szacowany model ekonometryczny jest liniowy względem parametrów alpha subscript j.

W jednym z poprzednich artykułów wyjaśniałam, kiedy model ekonometryczny jest liniowy względem parametrów, a kiedy liniowy względem zmiennych. Tutaj istotna jest liniowość względem nieznanych parametrów alpha subscript j.

Ogólnie, w modelu typowo liniowym główną rolę odgrywa suma iloczynów typu  " bold plus bold space bold italic a subscript bold i bold space bold italic X subscript bold i bold space bold plus bold space " . To znaczy, że zarówno parametry, jak i zmienne powinny być jednocześnie w pierwszych potęgach, oraz zmienna objaśniana Y powinna być kombinacją liniową zmiennych objaśniających i różnych parametrów.

Stąd taki model można zapisać w postaci macierzowej: bold italic Y space equals space bold italic X bold italic alpha plus bold italic epsilon.

Wektor epsilon to wektor składników losowych (poszczególnych obserwacji) reprezentujących łączny wpływ wszystkich czynników drugorzędnych, przypadkowych, nie uwzględnionych wśród zmiennych objaśniających. Dodanie do składowej deterministycznej wektora zakłóceń losowych epsilon ma modelować fakt, że zarejestrowane obserwacje mogą różnić się co do wartości od wielkości wynikających z teoretycznej konstrukcji modelu ekonomicznego. Wektor epsilon grupuje składniki losowe które są z definicji nieobserwowalne, postulujemy ich istnienie, by wyjaśnić wszelkie rozbieżności między teoretycznymi wartościami zmiennej objaśnianej a wartościami zaobserwowanymi. W teorii jeśli wiemy ile jest istotnych zmiennych objaśniających (k) i jeśli wiemy, jaka jest postać zależności (liniowa), czyli jeśli Z1 jest prawdziwe, to epsilon obejmuje tylko czynniki przypadkowe, drugorzędne, zakłócające. W praktyce jednak trzeba liczyć się z tym, że składnik losowy obejmuje też konsekwencje następujących błędów:

1. błędu specyfikacji (pominięcie istotnej zmiennej, włączenie nieistotnej itd.)
2. błędu aproksymacji (jeśli postać zależności jest inna czyli np. istotnie nieliniowa, i nie jest dobrze
przybliżana postacią liniową).

W praktyce liczymy się z tym, że Z1 nie jest idealnie spełnione (ale możemy zakładać, że dobrze dobraliśmy zmienne objaśniające i że prawdziwa postać zależności jest dobrze przybliżana przez zależność liniową…). Dokładniej własności epsilon zostaną opisane w punktach Z6-Z9.

 

Założenie 2. Zmienne objaśniające X subscript i są wielkościami nielosowymi o ustalonych elementach.

Zmienne objaśniające są nielosowe. Ich wartości traktowane są jako stałe w powtarzających się próbach.

Informacje zawarte w próbie są jedynymi, na podstawie których estymuje się parametry strukturalne modelu.

Uchylenie tego założenia powoduje utratę istotnych własności estymatorów.

 

Założenie 3. Rząd macierzy bold italic X równy jest liczbie szacowanych parametrów, czyli r open parentheses bold italic X close parentheses equals k plus 1.

Rząd macierzy – jest to liczba liniowo niezależnych kolumn. Można też powiedzieć, że to liczba liniowo niezależnych wierszy. Jednakże w zapisie macierzowym wiersze – odzwierciedlają kolejne obserwacje, natomiast kolumny – kolejne zmienne objaśniające X subscript i. Dlatego chodzi tu o niezależność pomiędzy zmiennymi objaśniającymi.

Założenia te zapewnia, że estymator można wyznaczyć w sposób jednoznaczny.

Z założenia 3 wynika od razu założenie 4 i założenie 5. Dlatego czasami wypisanie tych założeń osobno jet pomijane.

Założenie 4. Liczebność próby jest większa niż liczba szacowanych parametrów, tzn. n space greater or equal than space k plus 1.

Liczba obserwacji n powinna być większa od liczby szacowanych parametrów (zmiennych objaśniających).

Założenie 5. Nie występuje zjawisko współliniowości pomiędzy zmiennymi objaśniającymi

Zmienne objaśniające nie mogą być współliniowe, tzn. wektory obserwacji zmiennych objaśniających (kolumny
macierzy X) powinny być liniowo niezależne.

 

 

Składnik losowy ma swoje konkretne własności, które powinny być spełnione w ramach założenia.

Kształtowanie się składnika losowego w modelu ekonometrycznym w ogólnej postaci jest jednym z podstawowych źródeł wiedzy na temat tego, czy model został zbudowany prawidłowo.

Jego wartość to różnica pomiędzy wartością empiryczną w danym okresie y subscript t, a oszacowaną wartością teoretyczną dla wartości zmiennych objaśniających w danym okresie.

Z definicji model (w szerokim znaczeniu) to uproszczony obraz rzeczywistości. W takim razie budując model ekonometryczny, chcemy „uprościć” pewne zjawiska zachodzące w ekonomii, do postaci funkcji. Jednocześnie oczekujemy, że model będzie w jak najlepszym stopniu oddawał rzeczywistość, co za tym idzie różnica pomiędzy wartością, która wystąpiła w rzeczywistości (empiryczna), a tym co obliczyliśmy na podstawie modelu (teoretyczna), będzie jak najmniejsza, czyli jak najbliższa zeru.

Poniżej wymienione są własności składnika losowego. Choć brzmią one skomplikowanie, to jest to łatwiejsze niż się wydaje.

Zacznijmy od tego że, jeżeli składnik losowy kształtowałby się według jakiegoś schematu, to nie bardzo moglibyśmy mówić o jakiekolwiek losowości. Oznaczałoby to dla nas tyle, że w tej reszcie „coś się dzieje”, a model nie został zbudowany prawidłowo. Skoro widzimy, że coś się dzieje, to wypadałoby dojść do tego, co tam się kryje. Najprawdopodobniej w wartościach składnika losowego, w przypadku wystąpienia jego autokorelacji, zawarty jest jakiś czynnik mający spory wpływ na kształtowanie się zmiennej objaśnianej. Czynnik, którego nie wzięliśmy pod uwagę rozważając to, co może wpływać na badane przez nas zagadnienie. Jedną z szybkich metod, mających na celu oczekiwany spadek współczynnika autokorelacji jest dodanie do modelu zmiennej endogenicznej opóźnionej w czasie, ale o tym kiedy indziej bo to dużo bardziej skomplikowana sprawa.

 

Założenie 6. Wartość oczekiwana składnika losowego jest równa zero: for all for t of space E open parentheses epsilon subscript t close parentheses equals 0.

Wartości oczekiwane składników losowych są równe zeru ( for all for t of space E open parentheses epsilon subscript t close parentheses equals 0  dla t=1,2,…,n). Oznacza to, że zakłócenia reprezentowane przez składniki losowe mają tendencję do wzajemnej redukcji.

 

Założenie 7. Składnik losowy ma stałą skończoną wariancję  for all for t of space D squared open parentheses epsilon subscript t close parentheses equals sigma squared.

Wariancje składników losowych epsilon subscript t są stałe, tzn. for all for t of space D squared open parentheses epsilon subscript t close parentheses equals sigma squared dla t=1,2,…,n. Jest to tak zwana własność homoskedastyczności.

Macierz wariancji i kowariancji pomiędzy składnikami resztowymi jest postaci

D squared open parentheses epsilon close parentheses equals E open parentheses bold italic epsilon bold italic epsilon to the power of T close parentheses equals sigma squared bold italic I equals open square brackets table row cell sigma squared end cell 0 midline horizontal ellipsis 0 row 0 cell sigma squared end cell midline horizontal ellipsis 0 row vertical ellipsis vertical ellipsis down right diagonal ellipsis vertical ellipsis row 0 0 midline horizontal ellipsis cell sigma squared end cell end table close square brackets

Założenie to zapewnia, że wartość wariancji zakłóceń nie zależy od numeru obserwacji.

 

Założenia 6 i 7 warunkują korzystne własności estymatora bold italic a wektora parametrów bold italic alpha, ale o tym w następnym wykładzie.

 

Założenie 8. Nie występuje zjawisko autokorelacji składnika losowego, czyli zależności składnika losowego w różnych jednostkach czasu  for all for t not equal to s of space c o v open parentheses epsilon subscript t comma epsilon subscript s space close parentheses equals 0.

Składniki losowe epsilon subscript t i epsilon subscript s są od siebie niezależne. Nie występuje tzw. autokorelacja składników losowych.

Oznacza to liniową zależność pomiędzy resztami modelu odległymi od siebie o „k” okresów. Dotyczy to modeli dynamicznych.

Jej występowanie oznacza, że pominięto w modelu jedną z istotnych zmiennych objaśniających lub przyjęto niewłaściwą postać modelu.

 

Założenie 9.  Składnik losowy ma n-wymiarowy rozkład normalny: epsilon subscript t space colon space N open parentheses 0 comma sigma squared close parentheses dla t=1,2,…,n.

Każdy ze składników losowych ma epsilon subscript t ma rozkład normalny.

Założenie to dotyczące normalności rozkładu składnika losowego ma znaczenie przy wnioskowaniu statystycznym.

 

Jeżeli wszystkie powyższe cztery założenia w przypadku analizowanego przez nas modelu, okazują się być prawdziwe, to możemy składniki zakłócające pojmować jako generowane przez proces białego szumu. W takim przypadku wszystkie współczynniki autokorelacji oraz współczynniki autokorelacji cząstkowej będą zerowe, nieistotne statystycznie. By określić czy występuje biały szum, musimy dokonać testów odpowiednich hipotez. Wśród nich znajdują się np. statystyka Quenouille’a czy statystyka Durbina-Watsona.

 

 

 

W powyższym Wykładzie starałam się przybliżyć Ci założenia Klasycznej Metody Najmniejszych Kwadratów.

Wykład ten tak na prawdę powinien poprzedzać wykład o Metodzie Najmniejszych Kwadratów, gdyż najpierw powinny być postawione założenia, potem zastosowanie metody i wyprowadzanie wzorów na estymatory parametrów alpha subscript j modelu.

Mam nadzieję, że jednak skoro już wiesz czym jest Metoda Najmniejszych Kwadratów oraz poznałeś założenia stosowalności tej metody, to regresja liniowa będzie Ci bliższa i nie taka straszna 🙂

 

 

KONIEC

 


Kliknij, aby powtórzyć sobie, na czym polega regresja i Metoda Najmniejszych Kwadratów oraz skąd wzięły się wzory na oszacowania parametrów strukturalnych (poprzedni Wykład) <–

Kliknij, aby powrócić na stronę z Wykładami do ekonometrii


 

Jedna z wielu opinii o naszych Kursach...

Jestem zadowolony z kursu. Logika zaliczona. Do łba przez prawie miesiąc nic nie nie wchodziło a tu raptem w trakcie kursu doznałem olśnienia. Dodam, iż dokonałem jego zakupu dwa dni przed ogłoszeniem wyroku i to wystarczyło, aby go odroczyć – mam nadzieję, że na zawsze. Teraz studiuję pozostałe kursy i patrzę jasno w przyszłość. Polecam go każdemu a w szczególności tym koleżankom i kolegom, którzy uważają, że wszystko jest stracone.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *