Loading [MathJax]/jax/output/HTML-CSS/jax.js

Teorema de Gauss-Markov

Linear Regression Proof

Uma das propriedades mais interessentes dos estimadores MQO é fornecida pelo Teorema de Gauss-Markov. Neste post discutimos a importância, significado e fornecemos uma demostração passo a passo do Teorema.


Author

Affiliation

Carlos Trucíos ORCID ID for Carlos Trucíos

 

Published

Feb. 28, 2021

Citation

Trucíos, 2021


Introdução

O estimador de mínimos quadrados ordinários (MQO) é um dos métodos de estimação mais utilizados quanto à analise de regressão se refere. Ele é atrativo pela sua simplicidade e boas propriedades.

Sejam {(yi,xi,1,,xi,k)}i=1,,n tais que:

y1=β0+β1x1,1++βkx1,k+u1yn=β0+β1xn,1++βkxn,k+un

ou equivalentemente

[y1yn]Y=[1x1,1x1,k1xn,1xn,k]X×[β0βk]β+[u1un]u

então, o estimador MQO de β é dado por ˆβ=(XX)1XY.

Sob certas condições, o Teorema de Gauss-Markov nos diz que ˆβ é o melhor estimador linear não viesado (BLUE em Inglês):

Teorema

Seja Y=Xβ+u com X de posto completo, E(u|X)=0 e V(u|X)=σ2I. Então ˆβ, o estimador MQO de β, é o melhor estimador linear não viesado (BLUE) de β.

Note que o Teorema requer que:

Essas condições são às vezes conhecidas como as hipóteses de Gauss–Markov. Se alguma das hipóteses de Gauss–Markov não for valida, então ˆβ não será mais BLUE.

Ou seja Teorema de Gauss-Markov nos diz que se as condições do Teorema forem satisfeitas, não adianta buscar por algum outro estimador linear não viesado, pois ˆβ será o melhor (de menor variância).

Demostração

Seja ˜β qualquer outro estimador linear não viesado de β.

  1. Como ˜β é um estimador linear, ele é da forma ˜β=AY (para qualquer matriz A de dimensão n×k+1 função de X.).
  2. Como ˜β é não viesado, temos que AX=I pois E(˜β|X)=E(AY|X)=E(A(Xβ+u)|X)=E(AXβ|X)+E(u|X)=E(AXβ|X)pois E(u|X)=0=AXβ, que é não viesado se e somente se AX=I
  3. A variância de ˜β (condicional em X) é V(˜β|X)=V(AY|X)=AV(Y|X)A=AV(Xβ+u|X)A=AV(u|X)A=Aσ2IA=σ2AA
  4. Definamos C=AX(XX)1, então XC=XAIXX(XX)1I=0
  5. Sabemos que V(ˆβ|X)=σ2(XX)1. Então basta provar que V(˜β|X)V(ˆβ|X) é semi-definida positiva, ou seja AA(XX)10. Para provar isto vejamos que AA(XX)1=[C+X(XX)1][C+X(XX)1](XX)1=[C+(XX)1X][C+X(XX)1](XX)1=CC+CX0(XX)1+(XX)1XC0+(XX)1XX(XX)1I(XX)1=CC+(XX)1(XX)1=CC0.

Com isso temos provado que AA(XX)1 ou equivalentemente, σ2AAV(˜β|X)σ2(XX)1V(ˆβ|X), que é o que queremos demostrar.

Conclusão

Sob as hipóteses de Gauss-Markov, temos demostrado que o estimador de MQO, ˆβ, amplamente utilizado em análise de regressão é o melhor estimador linear não viesdado. Isto significa que se as hipóteses de Gauss-Markov são verificadas, não conseguiremos um estimador linear que seja melhor (menor variância) do que ˆβ.

Footnotes

  1. Um estimador linear é um estimador da forma ˜β=AY para uma matriz A de dimensão n×k+1 função de X.[↩]

References

Hansen, Bruce E. 2020. Econometrics. Online version. Wisconsin.
Seber, George AF. 2008. A Matrix Handbook for Statisticians. Vol. 15. John Wiley & Sons.

Citation

For attribution, please cite this work as

Trucíos (2021, Feb. 28). Carlos Trucíos: Teorema de Gauss-Markov. Retrieved from https://ctruciosm.github.io/posts/2021-02-28-teorema-de-gauss-markov/

BibTeX citation

@misc{trucíos2021teorema,
  author = {Trucíos, Carlos},
  title = {Carlos Trucíos: Teorema de Gauss-Markov},
  url = {https://ctruciosm.github.io/posts/2021-02-28-teorema-de-gauss-markov/},
  year = {2021}
}