Teorema di Gauss-Markov

Nessuna nota a piè di pagina
Questa voce o sezione sull'argomento statistica è priva o carente di note e riferimenti bibliografici puntuali.

Il teorema di Gauss-Markov, così chiamato in onore dei matematici Carl Friedrich Gauss e Andrej Markov, è un teorema in statistica matematica che afferma che in un modello lineare in cui i disturbi hanno valore atteso nullo, sono incorrelati e omoschedastici, gli stimatori lineari corretti più efficienti sono gli stimatori ottenuti con il metodo dei minimi quadrati.

Enunciato del teorema

In termini più formali, si consideri un modello lineare in notazione matriciale:

y = X β + ε , {\displaystyle y=X\beta +\varepsilon ,}

dove E [ ε ] = 0 {\displaystyle \mathrm {E} [\varepsilon ]=0} e E [ ε ε ] = σ 2 I {\displaystyle \mathrm {E} [\varepsilon \varepsilon ']=\sigma ^{2}I} (con A {\displaystyle A'} si indica la matrice trasposta della matrice A {\displaystyle A} ); essendo

β ^ = ( X X ) 1 X y {\displaystyle {\hat {\beta }}=(X'X)^{-1}X'y}

il vettore degli stimatori dei minimi quadrati, allora qualunque stimatore alternativo

b = L y {\displaystyle b=Ly}

ottenuto come combinazione lineare degli y {\displaystyle y} è tale per cui:

V a r ( b ) V a r ( β ^ ) = E [ ( b β ) ( b β ) ] E [ ( β ^ β ) ( β ^ β ) ] {\displaystyle \mathrm {Var} \left(b\right)-\mathrm {Var} \left({\hat {\beta }}\right)=\mathrm {E} \left[\left(b-\beta \right)\left(b-\beta \right)'\right]-\mathrm {E} \left[\left({\hat {\beta }}-\beta \right)\left({\hat {\beta }}-\beta \right)'\right]}

è una matrice semidefinita positiva.

Dimostrazione

Si consideri un generico stimatore lineare b = L y {\displaystyle b=Ly} ; si decomponga la matrice L {\displaystyle L} come:

L = D + ( X X ) 1 X . {\displaystyle L=D+(X'X)^{-1}X'.}

Si impone a questo punto che b {\displaystyle b} sia uno stimatore corretto, ossia:

E [ b ] = E [ D y + ( X X ) 1 X y ] = β . {\displaystyle \mathrm {E} \left[b\right]=\mathrm {E} \left[Dy+(X'X)^{-1}X'y\right]=\beta .}

Evidentemente, ciò è possibile solo se D X = 0 {\displaystyle DX=0} (e, ovviamente, E [ L ε ] = E [ D ε ] = 0 {\displaystyle \mathrm {E} [L\varepsilon ]=\mathrm {E} [D\varepsilon ]=0} ). La matrice delle covarianze di b {\displaystyle b} è data da:

E [ ( b β ) ( b β ) ] = E [ ( D + ( X X ) 1 X ) ε ε ( D + ( X X ) 1 X ) ] = σ 2 ( D D + ( X X ) 1 ) , {\displaystyle \mathrm {E} \left[(b-\beta )(b-\beta )'\right]=\mathrm {E} \left[(D+(X'X)^{-1}X')\varepsilon \varepsilon '(D+(X'X)^{-1}X')'\right]=\sigma ^{2}(DD'+(X'X)^{-1}),}

poiché la correttezza di b {\displaystyle b} impone che D X = 0 {\displaystyle DX=0} . Nell'espressione sopra si riconosce la matrice delle covarianze degli stimatori dei minimi quadrati V a r ( β ^ ) = σ 2 ( X X ) 1 {\displaystyle \mathrm {Var} ({\hat {\beta }})=\sigma ^{2}(X'X)^{-1}} ; è immediato osservare che la matrice σ 2 D D = V a r ( b ) V a r ( β ^ ) {\displaystyle \sigma ^{2}DD'=\mathrm {Var} (b)-\mathrm {Var} ({\hat {\beta }})} è semi-definita positiva, in quanto σ 2 > 0 {\displaystyle \sigma ^{2}>0} e:

v D D v = ( D v ) ( D v ) = | | D v | | 2 0 , v 0 , {\displaystyle v'DD'v=(D'v)'(D'v)=||D'v||^{2}\geq 0,\quad \forall v\neq 0,}

così che la tesi del teorema risulta dimostrata.

Bibliografia

  • Plackett, R.L. (1950). "Some Theorems in Least Squares". Biometrika 37 (1–2): 149–157. doi:10.1093/biomet/37.1-2.149. JSTOR 2332158. MR 36980.

Uso in fisica

  • L. Lyons, D. Gibaut, P. Clifford (1998). "How to combine correlated estimates of a single physical quantity". Nucl. Instr. and Meth. A270: 110.
  • L. Lyons, A. J. Martin, D. H. Saxon (1990). "On the determination of the b lifetime by combining the results of different experiments". Phys. Rev. D41: 982–985.

Voci correlate

  • Regressione lineare
  Portale Economia
  Portale Matematica
  Portale Statistica