Wykład 1 MZI(1), Informatyka i Ekonometria SGGW, Semestr 5, Ekonometria
Poza tym na świecie jest niewiele istot groźniejszych od kobiety.
//-->.pos {position:absolute; z-index: 0; left: 0px; top: 0px;}WYKŁAD 1Przypomnienie podstawowych wiadomości z podstaw ekonometrii.yi�½1x1i2x2i...kxkii,i=1,2,...,n,y�½Xβε1x111x12Macierz obserwacji zmiennych objaśniającychX �½ 1x1nx21xk1x22xk2x2nxknmanwierszy i (k+1) kolumn.Założenia KMNKZałożenia numeryczne (warunki stosowalności):1)n> (k+1) - liczba obserwacji musi być większa niż liczba szacowanych parametrów.2) rząd(X)=(k+1) - rząd macierzy X musi być równy liczbie szacowanych parametrów(pomiędzy wektorami obserwacji zmiennych objaśniających nie istnieje zależność liniowa -jest to założenie o braku współliniowości).Założenia stochastyczne (warunki dotyczące składnika losowego):1) model jest liniowy,2) wartości oczekiwane składników losowych są równe zeru, tzn.E(i)�½, dlai=1,2,...,n,3) wariancje składników losowychisą stałe, tzn.D2(i)�½2dlai=1,2,...,n,(jest to tzw.własność homoskedastyczności),4) składniki losoweiijsą od siebie niezależne,ij,dlai,j=1,2,...,n,(nie występujeautokorelacja składników losowych, tzn. współczynnik autokorelacji(i,j)0),5) zmienne objaśniające nie zależą od składnika losowego (silniejsze założenie: zmienneobjaśniające są nielosowe, ich wartości są traktowane jako wielkości stałe wpowtarzających się próbach),6) każdy ze składników losowychima rozkład normalny.Estymatorbwektora parametrówβotrzymany KMNK:b �½XTXXTY1Jeżeli nie są spełnionezałożenia numeryczne,to nie jesteśmy w stanie zastosowaćmatematycznych formuł na MNK.Twierdzenie Gaussa i MarkowaJeżeli założenia stochastyczne 1-5 KMNK) są spełnione, to najlepszym liniowym inieobciążonym estymatorem wektora nieznanych parametrówjest estymatorb �½XTXXTY. Najlepszy liniowy i nieobciążony estymator – w skrócie zapis BLUE (Best1Linear Unbiased Estimator).Jeżeli nie są spełnionestochastyczne założenia 1 - 5estymator MNK, przestaje być BLUE.Założenie 5) nie jest konieczne. Jeśli jest spełnione, to można stosować testy statystyczneoparte na rozkładach związanych z rozkładem normalnym, takich jak chi-kwadrat, t-Studenta,F.Zgodność estymatorów KMNKW przypadku dużych prób jedną z najważniejszych własności, jaką powinien posiadaćestymator jest własność zgodności. Zgodność estymatora oznacza, że jeśli będziemy bralicoraz większą próbę, to prawdopodobieństwo tego, że wartość estymatorabjbędzie różniłasię od parametruβjo określoną dodatnią wielkość będzie coraz mniejsze. Innymi słowy:coraz mniej będzie prawdopodobne, że wartość estymatora będzie odbiegała odestymowanego parametru.Aby estymator KMNK był zgodny niezbędne jest by spełnienie założenia 5 (warunekkonieczny).Klasyczne założenia – X nielosowe lub nieskorelowane z epsylonem (takie X sąnazywane zmiennymi egzogenicznymi). W zastosowaniach ekonomicznych to założeniebywa czasem niespełnione - niektóre zmienne objaśniające nie są niezależne od epsylona.Takie zmienne nazywa się zmiennymi endogenicznymi.W sytuacji, gdy występuje zależność między zmienną objaśniającymi a składnikiemlosowym1estymatory klasycznejMNKtracą niektóre cenne własności (nieobciążoności izgodności). W takiej sytuacji należy zastosować inne metody estymacji.Rozważamy model:y�½Xβε,Powyższe równanie można pomnożyć lewostronnie przez macierzXT:XTy �½ XTXβ XTεa następnie zapisać w kategoriach wartości oczekiwanych:E(XTy)�½E(XTXβ)E(XTε).W przypadku gdy spełnione jest założenie o niezależności składnika losowego od zmiennychobjaśniających, to:E(XTε)�½ 0a więc można zapisać, żeE(XTy)�½E(XTXβ),czyli1β �½ E(XTX)a więcE(XTy),b �½(XTX)1(XTy).WtedyE(b)�½ E(XTX)-1XTY�½ E(XTX)-1XT(Xβ+ ε)�½ β E(XTX)-1XTε1Jeśli zmienne losowe są niezależne, to są nieskorelowane. Może się zdarzyć natomiast, że zmienne są zależne inieskorelowane.JeśliXiεniezależne, toE(b)�½ β E(XTX)-1XTEε�½ β, bo z założeniaEε�½. Wprzeciwnym przypadku otrzymujemy estymator obciążony.Estymator ponadto traci własność zgodności – dowód pomijamy.Na początku rozważmy ideę metody zmiennych instrumentalnych.Zmienna instrumentalna (tzw. instrument) to zmienna silnie skorelowana z endogenicznązmienną objaśniającą i nieskorelowana ze składnikiem losowym.MZI - Metoda Zmiennych Instrumentalnych (IV – Instrumental Variable)W klasycznej MZI liczba instrumentów taka sama jak liczba endogenicznychzmiennych objaśniających.KROK 1Określamy grupę zmiennych instrumentalnych. Z wartości instrumentów tworzymy macierzZ,czyli mamy:EZTε= 0orazEZTXPrzyjmijmy, że liczba zmiennych w macierzy zmiennych instrumentalnych jest równa liczbiezmiennych wyjściowych.UwagaJeżeli któraś z wyjściowych zmiennych objaśniających jest niezależna od składnika losowego,to uznajemy ją także za instrument.KROK 2Zapisujemy postać modeluy�½XβεKROK 3Powyższe równanie można pomnożyć lewostronnie przez macierzZ’:ZTy �½ ZTXβ ZTεa następnie zapisać w kategoriach wartości oczekiwanych:KROK 4E(ZTy)�½E(ZTXβ)E(ZTε).Z niezależności zmiennych zawartych wZi składnika losowego wynikaKROK 5E(ZTy)�½E(ZTXβ),czyliβ�½ E(ZTX)a więcKROK 61E(ZTy),bIV�½(ZTX)1(ZTy).Technicznym warunkiem umożliwiającym przeprowadzenie powyższej procedury jestnieosobliwość macierzyZTX.Powyższa procedura jest mało efektywna, szczególnie gdy zależność międzyzmiennymi objaśniającymi a zastępującymi je instrumentami nie jest zbyt silna.Podwójna Metoda Najmniejszych Kwadratów (2MNK)W sytuacji, gdy dopuszcza się by liczba instrumentów była większa od liczbyendogenicznychzmiennychobjaśniającychmożnazastosowaćPodwójnąMetodęNajmniejszych Kwadratów. Inna nazwa stosowana w literaturze to Uogólniona MetodaZmiennych Instrumentalnych (GIV– Generalized Instrumental Variable).W metodzie tej wykorzystuje się tzw. macierze rzutowaniaP.-1gdziePZ�½ZZTZZTtzw. macierz rzutowania (P -projection matrix)Skąd taka nazwa?-1-1ˆˆPZX�½ZZTZZTX�½X, bo pamiętamy, żebMNK�½XTXXTY, czyliXbMNK�½Y,ˆczyli przemnożenie macierzyXprzez macierzPZprzekształca ją wX. Kolumny macierzyˆXsą zatem wartościami „teoretycznymi” z modeli objaśniających kolejne kolumny macierzyXzmiennymi, których wartości stanowią macierz instrumentówZ.Dowodzi się, że macierzPZsymetryczna i idempotentna.MacierzPAsymetryczna, gdyżPZ�½ZZ ZZTT-1TT�½ZZTZZT, ponieważ wiadomo, że-1ABT�½BTAT-1-1-1-1-1-1MacierzPZidempotentna, czyliPZPZ�½PZ, gdyżPZ�½ZZTZZTZZTZZT�½ZZTZ(ZTZ)ZTZZT�½ZZTZIZT�½ZZTZZTWtedy11TTˆ ˆˆbGIV�½ (XTX)1 (XTY)=(PZX)T(PZX)�½ ((PZX)TY)=XTPZPZX�½ (XTPZY)==(wykorzystujemy teraz fakt, że macierzPZsymetryczna i idempotentna) =X PZX�½(X P Y)=X ZZ ZZ XT1TTZTT-1TT-1TZatembGIV�½X PZXX PZY=X ZZ ZZ XTT-1T�½1(XTZZTZZTY)-1�½1(XTZZTZZTY)-1Uwaga, w sytuacji gdy macierzZma tyle samo kolumn co macierzX,to metoda GIVredukuje się do IV. WtedyXTZjest macierzą kwadratową i wówczas mamy:bGIV�½X PZXX PZY=X ZZ ZZ XT-1TTT-1T�½1(XTZZTZZTY)=2-1(ZTX)1ZTZ(XTZ)1(XTZZTZZTY)=(ZTX)1ZTZIZTZZTY)=(ZTX)1ZTY)-1-1=bIV(**)ˆ ˆˆbGIV�½b2MNK�½(XTX)1(XTY)Skąd nazwa 2MNK?Wykorzystanie wzoru(**) odpowiada bowiem dwukrotnemu zastosowaniu zwykłej MNK:-1ˆ1)W pierwszym kroku dokonuje się estymacjiX�½ZZTZZTX- czyli tu szacuje sięmodele, w których zmiennymi objaśniającymi są zmienne instrumentalne Z aobjaśniane X (tyle modeli ile jest zmiennych X)3.2) W drugim kroku szacuje się model, w którym Y jest zmienną objaśnianą a zmiennymiˆobjaśniającymi sąX.UwagaW przypadku gdy kolumna macierzyXpojawia się w macierzy instrumentówZ,ˆwtedy ta zmienna jest dokładnie odwzorowana w macierzy pomocniczejX, jest po prostusama swoim instrumentem. Oznacza to, ze w przypadku gdy tylko jedna ze zmiennychobjaśniających modelu jest skorelowana z błędem losowym to potrzebujemy nie zbiorukinstrumentów, wystarczy nam co najmniej jeden. Pozostałek−1zmiennych macierzyX,możemy bezpośrednio przepisać do macierzyZ,ponieważ nie są skorelowane ze składnikiemlosowym.(ABC)-1=C-1B-1A-13Gdyj-takolumna pojawia sie zarówno w macierzy obserwacjiXjak i w macierzy instrumentówZ,to jest onadoskonale odwzorowana przez sama siebie, bez pomocy pozostałych kolumn macierzyZ.Natomiast, gdy jest tokolumna skorelowana ze składnikiem losowym to jest ona w macierzyregresji tej zmiennej na kolumny macierzyZ.2ˆXzastępowana wartości dopasowanezanotowane.pl doc.pisz.pl pdf.pisz.pl kachorra.htw.pl