question |
réponse |
commencer à apprendre
|
|
układ równań wiążących określone wielkości ekonomiczne
|
|
|
commencer à apprendre
|
|
model, w którym wszystkie równania są liniowe
|
|
|
commencer à apprendre
|
|
zmienna, której wartości określane są w modelu, w szczególności zmienna taka może być zmienną objaśnianą w pewnym równaniu modelu, a objaśniającą w innym równaniu tego modelu
|
|
|
commencer à apprendre
|
|
zmienna, której wartości określane są poza modelem; oznacza to, że nie ma takiego równania, w którym zmienna ta jest objaśnianą
|
|
|
commencer à apprendre
|
|
postać modelu, w której przedstawione są rzeczywiste relacje między zmiennymi; do zapisu strukturalnego wykorzystuje się najczęściej zapis macierzowy
|
|
|
commencer à apprendre
|
|
modele, w których rolę zmiennych objaśniających pełnią zmienne skorelowane ze zmiennymi objaśnianymi, ale nie wyrażają one przyczyn zmienności zmiennych objaśnianych
|
|
|
commencer à apprendre
|
|
model, w którym uwzględnione jest opóźnienie zmiennej objaśniającej oraz fakt, że zmienna objaśniania może zależeć od swoich przeszłych realizacji
|
|
|
Model dynamiczny/statyczny commencer à apprendre
|
|
Dynamiczny - zmienne opóźnione/zmienna czasowa występuje Statyczny - nie występuje
|
|
|
commencer à apprendre
|
|
między zmiennymi łącznie współzależnymi nie występują powiązania
|
|
|
commencer à apprendre
|
|
model, w którym zakłada się istnienie powiązań między zmiennymi endogenicznymi nieopóźnionymi, ale niemających charakteru sprzężeń zwrotnych (powiązania jednokierunkowe)
|
|
|
Model o równaniach łącznie współzależnych commencer à apprendre
|
|
Występują sprzężenia zwrotne (przynajmniej jedno) - powiązania dwustronne między zmiennnymi łącznie współzależnymi
|
|
|
Postać strukturalna modelu wielorównaniowego-opisz składowe commencer à apprendre
|
|
BYt+ҐZt=εt B- macierz parametrów strukturalnych przy zmiennych łącznie współzależnych o wymiarach MxM, gdzie M to liczba zmiennych współzależnych w modelu Yt-obserwacje dokonane na zmiennych łącznie współzależnych (macierz o wymiarach Mx1) Ґ-macierz parametrów strukturalnych przy zmiennych z góry ustalonych (macierz o wymiarach MxK), gdzie K to liczba zmiennych z góry ustalonych Zt - macierz obserwacji dokonanych na zmiennych z góry ustalonych o wymiarach Kx1
|
|
|
Jak w zależności od budowy macierzy B w zapisie strukturalnym modelu wielorównaniowego zależy klasyfikacja ze względu na powiązania między zmiennymi łącznie współzaleznymi? commencer à apprendre
|
|
Macierz B diagonalna - model prosty Macierz B trójkątna - model rekurencyjny (powiązania jednostronne) Macierz B w pozostałych przypadkach - model o równaniach łącznie współzależnych
|
|
|
commencer à apprendre
|
|
zmienna, której wartości odpowiadają kolejnym numerom momentów czasu, w jakich mierzono wartości zmiennej objaśnianej
|
|
|
commencer à apprendre
|
|
model, w którym liczba równań jest równa liczbie zmiennych endogenicznych nieopóźnionych
|
|
|
Model jest identyfikowalny kiedy... commencer à apprendre
|
|
... jeżeli jest możliwe wyznaczenie (niekoniecznie jednoznaczne) wartości parametrów tego równania na podstawie znajomości parametrów postaci zredukowanej modelu. (jeżeli wszystkie jego równania są identyfikowalne)
|
|
|
Zmienne łącznie współzależne commencer à apprendre
|
|
zmienne endogeniczne nieopóźnione
|
|
|
Postać zredukowana modelu commencer à apprendre
|
|
postać, w której zmienne objaśniane są opisane tylko przy użyciu funkcji wartości zmiennych z góry ustalonych
|
|
|
commencer à apprendre
|
|
realizacja procesu stochastycznego w konkretnej próbie
|
|
|
commencer à apprendre
|
|
dane, które wyrażają stan zjawiska w ustalonym czasie, ale w odniesieniu do różnych obiektów
|
|
|
commencer à apprendre
|
|
zmienne pomiędzy którymi występuje korelacja
|
|
|
commencer à apprendre
|
|
uogólnienie wyników badania próby na całą populację
|
|
|
commencer à apprendre
|
|
Proces przekształcania postaci zredukowanej modelu do postaci strukturalnej
|
|
|
Postać końcowa modelu wielorównaniowego commencer à apprendre
|
|
postać, w której zmienne endogeniczne wyrażone są jako liniowe funkcje zmiennych egzogenicznych. Inaczej mówiąc, postać ta różni się od postaci zredukowanej tym, że z prawych stron równań modelu wyeliminowano opóźnione zmienne endogeniczne (jeśli takie były).
|
|
|
Ograniczenie zerowe a priori commencer à apprendre
|
|
Ile zmiennych nie występuje w danym równaniu, a występuje w modelu
|
|
|
Co lepiej przedstawia postać strukturalna, a co postać zredukowana modelu wielorównaniowego? commencer à apprendre
|
|
Postać strukturalna - ekonomiczna treść zależności między zmiennymi (umożliwia interpretację ekonomiczną) Postać zredukowana - umożliwia estymację parametrów
|
|
|
Model jest identyfikowalny, jeśli... commencer à apprendre
|
|
jeżeli wszystkie jego równania są identyfikowalne
|
|
|
Model (lub równanie) jest jednoznacznie identyfikowalny... commencer à apprendre
|
|
... jeżeli przekształcenie postaci zredukowanej w strukturalną jest jednoznaczne.
|
|
|
Warunek konieczny identyfikalności równania commencer à apprendre
|
|
m1-1<=k2 M-1<=m2+k2 Liczba zmiennych łącznych współzależnych występujących w równaniu pomniejszona o 1 musi być co najwyżej równa liczbie zmiennych z góry ustalonych nie występujących w równaniu.
|
|
|
Co znaczą oznaczenia: M=m1+m2 K=k1+k2 commencer à apprendre
|
|
M - liczba zmiennych łącznie współzależnych m1 (m2)- liczba zmiennych łącznie współzależnych (NIE) występujących w danym równaniu k1 (k2)- liczba zmiennych z góry ustalonych (NIE) występujących w danym równaniu
|
|
|
Warunek dostateczny identyfikalności i-tego równania? commencer à apprendre
|
|
macierz utworzona ze współczynników przy zmiennych występujących w innych równaniach modelu i równocześnie nie występujących w i-tym równaniu była rzędu M-1
|
|
|
Jeśli spełniony jest warunek dostateczny, kiedy możemy mówić o jednoznacznej a kiedy o niejednoznacznej identyfikalności równania? commencer à apprendre
|
|
Jeżeli ten warunek jest spełniony i liczba zmiennych, które nie występują w tym równaniu (i występują w modelu) jest równa m-1, to równanie jest jednoznacznie identyfikowalne, zaś jeśli jest większa, to równanie jest niejednoznacznie identyfikowalne.
|
|
|
Od czego zależy Metoda estymacji parametrów modeli wielorównaniowych? commencer à apprendre
|
|
od: 1. rodzaju powiązań między zmiennymi 2. identyfikalność modelu
|
|
|
Co to jest KMNK, PMNK, 2KMNK i kiedy się je stosuje? commencer à apprendre
|
|
KMNK - Klasyczna Metoda Najmniejszych Kwadratów (do estymacji w modelach prostych) PMNK - Pośrednia MNK - do estymacji w modelach jednoznacznie identyfikowalnych 2MNK - Podwójna MNK - do estymacji w modelach niejednoznacznie identyfikowalnych
|
|
|
Na czym polega idea PMNK? commencer à apprendre
|
|
Idea polega na wykorzystaniu ocen parametrów postaci zredukowanej do uzyskania ocen parametrów postaci strukturalnej.
|
|
|
commencer à apprendre
|
|
estymator, którego wartość oczekiwana jest równa poszukiwanej wartości parametru
|
|
|
Estymator najefektywniejszy commencer à apprendre
|
|
estymator, który ma najmniejszą wariancję w swojej klasie
|
|
|
commencer à apprendre
|
|
wartości zmiennej objaśnianej, które kształtowane są na podstawie wartości zmiennych objaśniających
|
|
|
commencer à apprendre
|
|
test, którego używa się do zweryfikowania założeń o braku autokorelacji składników losowych
|
|
|
commencer à apprendre
|
|
Estymator zgodny wtedy i tylko wtedy, gdy ciąg ocen uzyskiwanych za pomocą tego estymatora jest stochastycznie zbieżny do szacowanego parametru
|
|
|
Kiedy estymator jest nieobciążony? commencer à apprendre
|
|
1. Zmienne objaśniajace są nielosowe 2. Zmienne objaśniające są nieskorelowane ze składnkikami losowymi modelu 3. Składnik losowy ma zerową wartość oczekiwaną (1+2+3 = wartość oczekiwana estymatora parametru jest równa poszukiwanej wartości paramentru)
|
|
|
commencer à apprendre
|
|
1. Zmienne objaśniające moedlu muszą być liniowo niezależne. rz(X)=k+1<=n 2. Wartości zmiennych objaśniających są nielosowe, czyli nie są skorelowane ze składnikami losowymi modelu 3. Parametry strukturalne modelu są nielosowe 4. Składnik losowy ma wartość oczekiwaną = 0 5. Składnik losowy jest sferyczny (brak autokorelacji i brak heteroskedastyczności)
|
|
|
commencer à apprendre
|
|
ocena parametru związana z daną zmienną nie jest zależna od obserwacji dokonanych na innych zmiennych objaśniających
|
|
|
Co powoduje przybliżona współliniowość? commencer à apprendre
|
|
1. Macierz kowariancji i wariancji ma relatywne co do wartości el. diagonalne 2. Oceny średnich błędów szacunku są zawyżone(t-Student zaniżony) Konsekwencje: -pozorna nieistotność poszczególnych zm. objaśniających -zawyżony R2 (współczynnik determinacji) -znaczne zmiany wartości oszacowanych parametrów, przy nieznacznej zmianie wielkości próby
|
|
|
Test na badanie stopnia przybliżonej współliniowości? commencer à apprendre
|
|
VIF (czynnik inflacji wariancji) <10 VIF=1/(1-R^2)
|
|
|
Co zrobić jeśłi jest współliniowość? commencer à apprendre
|
|
1. Regresja grzbietowa 2. Regresja wzg głównych składowych 3. Usuwanie zmiennych powodujących występowanie zjawiska współliniowości (bądź zastąpienie ich) 4. Wydłużenie próby 5. Oparcie estymacji na danych przekrojowo-czasowych
|
|
|
Na czym polega regresja grzbietowa? commencer à apprendre
|
|
Dodanie pewnej stałej do wartości wariancji zmiennych objaśniających w celu zmniejszenia wzajemnego skorelowania zmiennych objaśniających. (usunięcie współliniowości)
|
|
|
commencer à apprendre
|
|
sytuacja, w której zmienna objaśniająca słabo skorelowana ze zmienną objaśnianą po usunięciu z modelu powodu znaczący spadek wartości współczynnika determinacji
|
|
|
commencer à apprendre
|
|
zmienna, której wprowadzenie do modelu powoduje znaczący wzrost wartości współczynnika determinacji
|
|
|
Testy o homoskedastyczności składnika losowego commencer à apprendre
|
|
Test Harrisona-McCabe; Test White'a
|
|
|
commencer à apprendre
|
|
wszystkie różnice pomiędzy wartościami teoretycznymi a praktycznymi
|
|
|
Homoskedastyczność składnika losowego commencer à apprendre
|
|
składniki losowe mają taką samą wariancję
|
|
|
Współczynnik determinacji commencer à apprendre
|
|
iloraz wariancji wartości teoretycznych i wariancji wartości empirycznych zmiennej objaśniającej; miara pozwalająca określić czy model jest “wystarczająco” dobry. Czyli objaśnia jaka część zmienności zmiennej objaśnianej jest wyjaśniona przez model
|
|
|
commencer à apprendre
|
|
Jaka część zmienności zmiennej objaśnianej nie została wyjaśniona przez model. =1-R^2
|
|
|
Badanie istotności zmiennych (jakie testy?) commencer à apprendre
|
|
Test t-Studenta - wykorzystywany do weryfikacji istotności parametru w modelu Test F-Sendecora - wykorzystywany do weryfikacji istotności całego wektora parametrów (test Walda)
|
|
|
commencer à apprendre
|
|
W sytuacji gdy test DW nie daje odpowiedzi na temat występowania autokorelacji, jest to tak zwany obszar niekonkluzywności.
|
|
|
commencer à apprendre
|
|
estymowane odchylenie standardowe błędu danej metody
|
|
|
commencer à apprendre
|
|
iloraz pomiędzy błędem bezwzględnym i wartością dokładną zmiennej objaśniającej
|
|
|
Współczynnik autokorelacji k-tego rzędu commencer à apprendre
|
|
współczynnik korelacji wartości zmiennej objaśnianej z wartościami tej samej zmiennej przesuniętej w czasie o k okresów
|
|
|
Jak zbadać natężenie efektu katalizy? commencer à apprendre
|
|
Badamy integralną pojemność informacyjną H. Natężenie efektu katalizy= R^2-H Im większa korelacja między zmiennymi objaśniającymi, tym niższe wartości przybiera H.
|
|
|
Metody różniczki zupełnej commencer à apprendre
|
|
estymacja parametrów przy wykorzystaniu przyrostów wartości zmiennej (można z tego korzystać tylko jeżeli współczynnik autokorelacji jest bliski jedności)
|
|
|
Co oznacza autokorelacja? commencer à apprendre
|
|
pomiędzy zmiennymi losowymi a ich opóźnieniami istnieje zależności stochastyczna.
|
|
|
brak sferyczności składnika losowego commencer à apprendre
|
|
autokorelacja+heteroskedastycznoś Estymator oszacowany KMNK nadal jest nieobciążony i zgodny ale traci EFEKTYWNOŚĆ.
|
|
|
commencer à apprendre
|
|
Stosujemy, gdy brak jest sferyczności składnika losowego (nie możemy przeprowadzić KMNK). UMNK stosujemy wyłącznie gdy macierz omega jest znana lub możliwe jest jej oszacowanie. Szacujemy parametry modelu na podstawie transformowanych zmiennych.
|
|
|
Jakie są konsekwencje braku sferyczności składnika losowego (heteroskedastyczność/autokorelacja?) commencer à apprendre
|
|
Niedoszacowanie wariancji składnika losowego; Niedoszacowanie błędów standartowych parametrów; Zawyżone statystyki t-Studenta. Obraz weryfikacji modelu jest nieprawdziwy. Poza tym obserwujemy zbyt wysoką wartość R2 czyli współczynnika determinacji. Powstaje złudne dobre dopasowanie modelu do danych empirycznych.
|
|
|
Metoda Cochrane'a -Orcutta commencer à apprendre
|
|
jest wersją UMNK (uogólnionej metody najmniejszych kwadratów) a stosowana bywa przy wystąpieniu autokorelacji pierwszego rzędu.
|
|
|
commencer à apprendre
|
|
zgodność znaków ocen parametrów i znaków współczynników korelacji
|
|
|
commencer à apprendre
|
|
jeżeli dwie zmienne objaśniające są ze sobą skorelowane; jedna jest niedoszacowana, a druga jest przeszacowana
|
|
|
commencer à apprendre
|
|
Sytuacja, w której dwie zmienne są dobrymi zmiennymi objaśniającymi ale w połączeniu znacząco obniżają współczynnik determinacji. (wysoka korelacja)
|
|
|
commencer à apprendre
|
|
sztucznie zmniejsza się wartość współczynników korelacji (przez dodanie wartości parametru lambda) w celu otrzymania bardziej stabilnych wartości współczynników.
|
|
|
commencer à apprendre
|
|
powoduje Anihilację; silna współliniowosc zm. objaśniających
|
|
|