Treść książki

Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
36
2.Modelejednorównanioweliniowe
zpierwszegopodgrafuspójnego(X17X27X4)wybieramyX2wierzchołek
onajwyższymstopniu(zmiennaX2wniesiedomodelutakżeinformacjeoX1iX4),
zdrugiegopodgrafu(X3,X6)wybieramyX3(obydwawierzchołkimajątakisam
rząd=1,aleX3jestsilniejskorelowanazezmiennąendogenicznąr03=10761,
r06=1075),
trzeciązmiennąobjaśniającąbędzieX5,czylizmienna,któraniejestistotniesko-
relowanazżadnąinnązmienną,awięcżadnainnazmiennaniewniesiedomodeluin-
formacjioniej.
ReasumującY=f(X27X37X5),czyliwmodelunależyuwzględnićzmienneX2,
X3orazX5.
2.3.Estymacjamodelu
2.3.1.Klasycznymodelregresjiliniowejzałożenia
Przypomnijmy,żepostaćstrukturalnajednorównaniowegomodeluliniowego(wzór
(2.1))jestnastępująca:
Yt=u0+u1Xt1+u2Xt2+lll+uKXtK+Et7
apostaćstrukturalno-statystyczna,uwzględniającawszystkieobserwacjenazmiennych
(modelwzapisiemacierzowo-wektorowymwzór(2.2)):
y=Xł+S
itoonastanowipunktwyjściaestymacjiparametrówmodelu.
Postaćstrukturalno-statystycznaniewystarczajednakdoprzeprowadzeniaestyma-
cjiwrozumieniustatystykimatematycznej.Potrzebnejeszczezałożeniaprobabili-
styczne,opisujące(hipotetyczny)mechanizmgenerowaniaposzczególnychzmiennych
(obserwacji).
Modelliniowywzapisiemacierzowo-wektorowymwrazzesformułowanymiwer-
balniezałożeniamimożnazapisaćnastępująco([46],s.215–216):
1.y
n×1
=X
n×k
k×1
ł
+S
n×1
(każdaobserwacjaytjestliniowąfunkcjąobserwacjixtjoraz
składnikalosowegoEt,czylimodel,któregoparametryszacujemy,jestmodelemlinio-
wym).
2.Xjestmacierząnielosową,zatemzmienneobjaśniającezmiennyminieloso-
wymi(ustalonymiwpowtarzanychpróbach;dlakażdegot=17...7nnapoziomie
xt17...7xtK).
3.rz(X)=K+1<n(tzn.macierzXmapełnyrządkolumnowy);wektorywartości
poszczególnychzmiennychobjaśniających(kolumnymacierzyX)liniowoniezależne
(niewystępujewspółliniowośćzmiennychobjaśniających);liczbazmiennychobjaśnia-
jących(zestałą1)jestmniejszaodliczbyobserwacji.
4.E(S)=0
składniklosowymawartośćoczekiwanąrównązeru(czylizakłó-
n×1
ceniaróżnokierunkowekompensująsię).