ME715 - Econometria

Modelo de Regressão Linear III

Prof. Carlos Trucíos
ctrucios@unicamp.br

Instituto de Matemática, Estatística e Computação Científica (IMECC),
Universidade Estadual de Campinas (UNICAMP).

Teste t

Teste t

Sob HRLM1–HRLM6 e condicional aos valores amostrais de \(X\), \[\dfrac{\hat{\beta}_j - \beta_j}{\sqrt{\mathbb{V}(\hat{\beta}_j | X)}} \sim N(0,1)\]

  • O bom: \(\sim N(0,1)\)
  • O problema: \(\mathbb{V}(\hat{\beta}_j | X)\) depende de \(\sigma^2\) mas nós nunca conhecemos \(\sigma^2\), então substituimos \(\sigma^2\) por \(\hat{\sigma}^2\), obtendo assim nosso \(\widehat{\mathbb{V}}(\hat{\beta}_j | X)\)

\[\dfrac{\hat{\beta}_j - \beta_j}{\sqrt{\widehat{\mathbb{V}}(\hat{\beta}_j | X)}} \sim t_{n- k - 1}\]

Teste t

No modelo \[Y = \beta_0 + \beta_1 X_1 + \ldots + \beta_kX_k +u\]

Geralmente, estamos interessados em testar \[H_0: \beta_j = b \quad vs \quad H_1: \beta_j \neq b\]

\[H_0: \beta_j \leq b \quad vs \quad H_1: \beta_j > b\]

\[H_0: \beta_j \geq b \quad vs \quad H_1: \beta_j < b\]

Usualmente \(b = 0\) (mas outros valores também são utilizados)

Teste t

Para testar hipóteses é preciso uma estatística de teste. A estatística utilizada no Teste T é chamada de estatística t

\[t_{\hat{\beta}_j} = \dfrac{\hat{\beta}_j - b}{\sqrt{\widehat{\mathbb{V}}(\hat{\beta}_j|X)}} \stackrel{H_0}{\sim} t_{n-(k+1)}\]

Quando:

  • \(H_0: \beta_j = b \quad \text{vs} \quad H_1: \beta_j \neq b\), rejeitamos \(H_0\) se \(|t_{\hat{\beta}_j}|> c_0\)
  • \(H_0: \beta_j \geq b \quad \text{vs} \quad H_1: \beta_j < b\), rejeitamos \(H_0\) se \(t_{\hat{\beta}_j} < c_1\)
  • \(H_0: \beta_j \leq b \quad \text{vs} \quad H_1: \beta_j > b\), rejeitamos \(H_0\) se \(t_{\hat{\beta}_j} > c_2\)

em que \(c\) é um quantil da distribuição \(t_{n-k-1}\) e depende do nível de significância \(\alpha\).

Teste t

Para um nível de significância\(\alpha\):

Teste Bilateral: \[H_0: \beta_j = b \quad \text{vs} \quad H_1: \beta_j \neq b,\] rejeitamos \(H_0\) se \(|t_{\hat{\beta}_j}|> c_0 = |t_{\alpha/2,n-(k+1)}| = t_{1-\alpha/2,n-(k+1)}\)

Teste Unilateral:

\[H_0: \beta_j \geq b \quad \text{vs} \quad H_1: \beta_j < b,\] rejeitamos \(H_0\) se \(t_{\hat{\beta}_j} < c_1 = t_{\alpha,n-(k+1)}.\)

\[H_0: \beta_j \leq b \quad \text{vs} \quad H_1: \beta_j > b,\] rejeitamos \(H_0\) se \(t_{\hat{\beta}_j} > c_2 = t_{1-\alpha,n-(k+1)}.\)

Teste t: Bilateral \(H_1: \beta_j \neq 0\)

Teste t: Unilateral \(H_1: \beta_j < 0\)

Teste t: Unilateral \(H_1: \beta_j > 0\)

Teste t

Resumindo, para testar hipóteses precisamos:

  1. Definir o nível de significância \(\alpha\).
  2. Calcular a estatística de teste \(t_{\hat{\beta}_j}\).
  3. Comparar:
    • Para \(H_0: \beta_j = b \quad vs. \quad H_1: \beta_j \neq b,\) rejeitar \(H_0\) se \(|t_{\hat{\beta}_j}| > |t_{\alpha/2,n-(k+1)}|\)
    • Para \(H_0: \beta_j \geq b \quad \text{vs} \quad H_1: \beta_j < b,\) rejeitar \(H_0\) se \(t_{\hat{\beta}_j} < t_{\alpha,n-(k+1)}\)
    • Para \(H_0: \beta_j \leq b \quad \text{vs} \quad H_1: \beta_j > b,\) rejeitar \(H_0\) se \(t_{\hat{\beta}_j} > t_{1-\alpha,n-(k+1)}.\)
  4. Se não temos evidência para rejeitar \(H_0\), então não rejeitamos \(H_0\).

Teste t

O valor \(c\) é obtido do quantil da distribuição \(t_{n-k-1}\), por exemplo:

Code
n = 100; k = 5; alpha = 0.05
# Hipótese Bilateral
qt(1 - alpha/2, df = n - k - 1)
[1] 1.985523
Code
# Hipótese Unilateral
qt(alpha, df = n - k - 1) # ou 
[1] -1.661226
Code
qt(1 - alpha, df = n - k - 1)
[1] 1.661226

Teste t

  • A maioria de softwares testam a hipótese \(H_0: \beta_j = 0 \quad \text{vs} \quad H_1: \beta_j \neq 0\), e fornecem os p-valores.
  • Olhando para os p-valores podemos rejeitar ou não \(H_0\) sem precisar calcular \(c\)
  • Cuidado, se nosso interesse é testar \(H_0: \beta_j = b\) (com \(b \neq 0\)) precisaremos fazer as contas manualmente

Teste t: Exemplo

Assumindo que todas as suposições do modelo são verificadas, quais variáveis são estatísticamente significativas? (\(\beta_j \neq 0\))

Code
library(wooldridge)
modelo = lm(log(wage) ~ educ + exper + tenure, data = wage1)
round(summary(modelo)$coefficients,4)
            Estimate Std. Error t value Pr(>|t|)
(Intercept)   0.2844     0.1042  2.7292   0.0066
educ          0.0920     0.0073 12.5552   0.0000
exper         0.0041     0.0017  2.3914   0.0171
tenure        0.0221     0.0031  7.1331   0.0000
Code
import wooldridge as woo
import numpy as np
import statsmodels.formula.api as smf

wage1 = woo.dataWoo('wage1')
modelo = smf.ols(formula = 'np.log(wage) ~ educ + exper + tenure', data=wage1) 
results = modelo.fit()
results.summary()
OLS Regression Results
Dep. Variable: np.log(wage) R-squared: 0.316
Model: OLS Adj. R-squared: 0.312
Method: Least Squares F-statistic: 80.39
Date: Wed, 16 Aug 2023 Prob (F-statistic): 9.13e-43
Time: 16:06:17 Log-Likelihood: -313.55
No. Observations: 526 AIC: 635.1
Df Residuals: 522 BIC: 652.2
Df Model: 3
Covariance Type: nonrobust
coef std err t P>|t| [0.025 0.975]
Intercept 0.2844 0.104 2.729 0.007 0.080 0.489
educ 0.0920 0.007 12.555 0.000 0.078 0.106
exper 0.0041 0.002 2.391 0.017 0.001 0.008
tenure 0.0221 0.003 7.133 0.000 0.016 0.028
Omnibus: 11.534 Durbin-Watson: 1.769
Prob(Omnibus): 0.003 Jarque-Bera (JB): 20.941
Skew: 0.021 Prob(JB): 2.84e-05
Kurtosis: 3.977 Cond. No. 135.


Notes:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
Code
using WooldridgeDatasets, GLM, DataFrames

wage1 = DataFrame(wooldridge("wage1"));
modelo = lm(@formula(log(wage) ~ educ + exper + tenure), wage1);
table_reg = coeftable(modelo);
table_reg
─────────────────────────────────────────────────────────────────────────────
                  Coef.  Std. Error      t  Pr(>|t|)    Lower 95%   Upper 95%
─────────────────────────────────────────────────────────────────────────────
(Intercept)  0.28436     0.10419      2.73    0.0066  0.0796756    0.489044
educ         0.092029    0.00732992  12.56    <1e-31  0.0776292    0.106429
exper        0.00412111  0.00172328   2.39    0.0171  0.000735698  0.00750652
tenure       0.0220672   0.00309365   7.13    <1e-11  0.0159897    0.0281447
─────────────────────────────────────────────────────────────────────────────

Teste t

E se quisermos testar \(H_0: \beta_{educ} \geq 0 \quad \text{vs} \quad \beta_{educ} < 0\)?

Code
round(summary(modelo)$coefficients,4)
            Estimate Std. Error t value Pr(>|t|)
(Intercept)   0.2844     0.1042  2.7292   0.0066
educ          0.0920     0.0073 12.5552   0.0000
exper         0.0041     0.0017  2.3914   0.0171
tenure        0.0221     0.0031  7.1331   0.0000
  • Não podemos utilizar \(P(> |t|)\) (Por quê?)
  • Note que \(P_{H_o}( |T| > |t|) = 2 P_{H_0} (T > |t|) = 2 P_{H_0} (T < -|t|)\)
  • Então: p-valor unilateral = \(P_{H_o}( |T| > |t|)/2\)

Teste t

E se quisermos testar \(H_0: \beta_{educ} = 1 \quad \text{vs} \quad \beta_{educ} \neq 1\)?

Code
round(summary(modelo)$coefficients,4)
            Estimate Std. Error t value Pr(>|t|)
(Intercept)   0.2844     0.1042  2.7292   0.0066
educ          0.0920     0.0073 12.5552   0.0000
exper         0.0041     0.0017  2.3914   0.0171
tenure        0.0221     0.0031  7.1331   0.0000
  • Não podemos utilizar nem “t value” nem \(P(> |t|)\) (Por quê?)
  • \(t_{\hat{\beta}_{educ}} = \dfrac{\hat{\beta}_{educ} - 1}{\sqrt{\widehat{V}(\hat{\beta}_{educ})}} = \dfrac{0.0920-1}{0.0073} = -124.3836\)
  • Como é um teste de Hipóteses Bilateral rejeitamos \(H_0\) se \(\underbrace{|t_{\hat{\beta}_{educ}}|} = {124.3836} > \underbrace{|c|}_{1.964519},\)

Teste F

Teste F

  • A estatística t é utilizada para testar individualmente os parâmetros do modelo.
  • Seja o modelo \[Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \ldots + \beta_k X_k\] e suponha que queremos testar \[H_0: \beta_2 = 0, \beta_3 = 0, \beta_5 = 0 \quad \text{vs} \quad H_1: H_0 \text{ não é verdadeiro}\]
  • Fazer um teste t para cada \(\beta\)?
  • Não!. Precisamos fazer o teste de forma conjunta!
  • O teste F nos permite testar \(H_0\) de forma conjunta!

Teste F

Seja o modelo \[Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \ldots + \beta_k X_k +u\] E seja \(H_0: \beta_1 = 0, \beta_2 = 0, \ldots, \beta_q = 0\). Então, o modelo (sob \(H_0\)) é dado por \[y = \beta_0 + \beta_{q+1} x_{q+1} + \beta_{q+2} x_{q+2} + \ldots + \beta_k x_k +u\]

Sob HRLM1–HRLM6, o é dado por \[F = \dfrac{(SQR_r - SQR_i)/q}{SQR_i /(n-(k+1))} \stackrel{H_0}{\sim} F_{q,n-(k+1)}\]

Teste F

\[F = \dfrac{(SQR_r - SQR_i)/q}{SQR_i /(n-(k+1))} \stackrel{H_0}{\sim} F_{q,n-(k+1)}\]

  • Intuitivamente, estamos analisando quanto aumenta a SQR quando retiramos algumas das variáveis.
  • Se o aumento no SQR for grande (em relação ao SQR do modelo irrestrito) rejeitamos \(H_0\) (pois a eliminação dessas variáveis aumeta muito a SQR)
  • Isto implica que se \(F\) for suficientemente grande, rejeitamos \(H_0\)
  • Quão grande? depende do nível de significância \(\alpha\).
  • Como \(SQR_r \geq SQR_i\) (sempre) o numerador será sempre \(\geq 0\), e valores grandes de \(F\) nos levarão a rejeitar \(H_0\) (teste unilateral).

Teste F

Teste F

No modelo \(\log(wage) = \beta_0 + \beta_1 educ + \beta_2 exper + \beta_3 tenure + u\)

Queremos testar: \(H_0: \beta_1=0, \beta_3 = 0 \quad \text{vs} \quad H_1: H_0 \text{ não é verdadeira}\)

\[F = \dfrac{(SQR_r - SQR_i)/q}{SQR_i /(n-(k+1))} \stackrel{H_0}{\sim} F_{q,n-(k+1)}\]

Code
modeloi = lm(log(wage) ~ educ + exper + tenure, data = wage1)
modelor = lm(log(wage) ~ exper, data = wage1)
SQRi = sum(residuals(modeloi)^2)
SQRr = sum(residuals(modelor)^2)
n = nrow(wage1); k = 3; q = 2
est_F = ((SQRr - SQRi)/SQRi)*((n - k - 1)/q)
est_F
[1] 115.8532
Code
qf(p = 0.95, df1 = q, df2 = n - k - 1)
[1] 3.012991

Como \(\underbrace{F}_{115.8532} > \underbrace{c}_{3.012991}\), então rejeitamos \(H_0\) com um nível de significância \(\alpha = 0.05\).

Teste F

Code
modeloi = lm(log(wage) ~ educ + exper + tenure, data = wage1)
modelor = lm(log(wage) ~ exper, data = wage1)
anova(modelor, modeloi)
Analysis of Variance Table

Model 1: log(wage) ~ exper
Model 2: log(wage) ~ educ + exper + tenure
  Res.Df    RSS Df Sum of Sq      F    Pr(>F)    
1    524 146.49                                  
2    522 101.46  2    45.034 115.85 < 2.2e-16 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Code
modeloi = smf.ols(formula = 'np.log(wage) ~ educ + exper + tenure', data=wage1) 
hypotheses = ['educ = 0', 'tenure = 0']
ftest = results.f_test(hypotheses)
ftest
<class 'statsmodels.stats.contrast.ContrastResults'>
<F test: F=115.85321268596624, p=2.3026210669031218e-42, df_denom=522, df_num=2>
Code
using WooldridgeDatasets, GLM, DataFrames
wage1 = DataFrame(wooldridge("wage1"));

modeloi = lm(@formula(log(wage) ~ educ + exper + tenure), wage1);
modelor = lm(@formula(log(wage) ~ exper), wage1);
teste_F = ftest(modelor.model, modeloi.model);
teste_F
F-test: 2 models fitted on 526 observations
────────────────────────────────────────────────────────────────────
     DOF  ΔDOF       SSR      ΔSSR      R²     ΔR²        F*   p(>F)
────────────────────────────────────────────────────────────────────
[1]    3        146.4899            0.0124                          
[2]    5     2  101.4556  -45.0343  0.3160  0.3036  115.8532  <1e-41
────────────────────────────────────────────────────────────────────

Teste F (significância geral do modelo)

Dado um modelo da forma \[Y = \beta_0 + \beta_1 X_1 + \ldots + \beta_k X_k + u,\]

um teste bastante rotineiro nos modelos de regressão é:

\[H_0: \beta_1 = 0, \beta_2 = 0, \ldots, \beta_k=0 \quad \text{vs} \quad H_0: H_1 \text{ não é verdadeiro}\]

Estes testes são geralmente feitos por padrão nos pacotes e quando encontrar “Teste F” estão-se referindo ao teste da significância global do modelo.

Teste F (significância geral do modelo)

Code
modeloi = lm(log(wage) ~ educ + exper + tenure, data = wage1)
summary(modeloi)

Call:
lm(formula = log(wage) ~ educ + exper + tenure, data = wage1)

Residuals:
     Min       1Q   Median       3Q      Max 
-2.05802 -0.29645 -0.03265  0.28788  1.42809 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) 0.284360   0.104190   2.729  0.00656 ** 
educ        0.092029   0.007330  12.555  < 2e-16 ***
exper       0.004121   0.001723   2.391  0.01714 *  
tenure      0.022067   0.003094   7.133 3.29e-12 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.4409 on 522 degrees of freedom
Multiple R-squared:  0.316, Adjusted R-squared:  0.3121 
F-statistic: 80.39 on 3 and 522 DF,  p-value: < 2.2e-16
Code
modeloi = smf.ols(formula = 'np.log(wage) ~ educ + exper + tenure', data=wage1) 
results = modeloi.fit()
results.summary()
OLS Regression Results
Dep. Variable: np.log(wage) R-squared: 0.316
Model: OLS Adj. R-squared: 0.312
Method: Least Squares F-statistic: 80.39
Date: Wed, 16 Aug 2023 Prob (F-statistic): 9.13e-43
Time: 16:07:07 Log-Likelihood: -313.55
No. Observations: 526 AIC: 635.1
Df Residuals: 522 BIC: 652.2
Df Model: 3
Covariance Type: nonrobust
coef std err t P>|t| [0.025 0.975]
Intercept 0.2844 0.104 2.729 0.007 0.080 0.489
educ 0.0920 0.007 12.555 0.000 0.078 0.106
exper 0.0041 0.002 2.391 0.017 0.001 0.008
tenure 0.0221 0.003 7.133 0.000 0.016 0.028
Omnibus: 11.534 Durbin-Watson: 1.769
Prob(Omnibus): 0.003 Jarque-Bera (JB): 20.941
Skew: 0.021 Prob(JB): 2.84e-05
Kurtosis: 3.977 Cond. No. 135.


Notes:
[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
Code
using WooldridgeDatasets, GLM, DataFrames
wage1 = DataFrame(wooldridge("wage1"));

modeloi = lm(@formula(log(wage) ~ educ + exper + tenure), wage1);
modelor = lm(@formula(log(wage) ~ 1), wage1);
teste_F = ftest(modelor.model, modeloi.model);
teste_F
F-test: 2 models fitted on 526 observations
────────────────────────────────────────────────────────────────────
     DOF  ΔDOF       SSR      ΔSSR       R²     ΔR²       F*   p(>F)
────────────────────────────────────────────────────────────────────
[1]    2        148.3297            -0.0000                         
[2]    5     3  101.4556  -46.8742   0.3160  0.3160  80.3909  <1e-42
────────────────────────────────────────────────────────────────────

Teste F

Teste F

  • O teste F a diferença do teste T, permite que testemos conjuntamente hipóteses com mais de uma restrição.
  • Às vezes os resultados obtidos pelos testes t e F podem levar a conclusões diferentes, nestes casos é preciso analisar cuidadosamente cada caso (em geral, na presença de multicolinearidade, o teste F é menos afetado. Por outro lado, quado utilizamos múltiplos testes T, aumenta a chance de obtermos falsos positivos.).
  • No teste F quando \(q = 1\), o teste F e o teste t são equivalentes.

Testes de hipóteses mais gerais

Testes de hipóteses mais gerais

Imagine os seguintes casos:

Caso: Hipóteses
Caso 1 \(H_0: \beta_i = 0\)
Caso 2 \(H_0: \beta_i = b_i\)
Caso 3 \(H_0: \beta_i + \beta_j = b\)
Caso 4 \(H_0: \beta_i = \beta_j\)
Caso 5 \(H_0: [\beta_1, \cdots, \beta_k]' = 0\)
Caso 6 \(H_0: \boldsymbol{\beta}_2 = 0\)

Em que \(\boldsymbol{\beta} = [\boldsymbol{\beta}_1, \boldsymbol{\beta}_2]\) com \(\boldsymbol{\beta}_1\) de dimensão \(k_1\) e \(\boldsymbol{\beta}_2\) de dimensão \(k_2\)

Os casos 1, 2 e 5 são os casos mais simples, mas como fazer se estivermos interessados nos casos 3, 4 ou 6?

Testes de hipóteses mais gerais

Todos os casos anteriores estão dentro do seguinte escopo: \[H_0: R \boldsymbol{\beta} = r \quad ou \quad \equiv \quad H_0: R \boldsymbol{\beta} - r = 0\]

em que

  • \(R_{q \times k + 1}\) com \(q < k+1\),
  • \(r_{q \times 1}\) e
  • \(\boldsymbol{\beta} = [\beta_0, \beta_1, \cdots, \beta_k]'\)

Testes de hipóteses mais gerais

Hipóteses \(R, r \text{ e } q\)
\(H_0: \beta_i = 0\) \(R = [0, \cdots, 0, \underbrace{1}_{i-th}, 0, \cdots, 0]\), r = 0, q = 1
\(H_0: \beta_i = b_i\) \(R = [0, \cdots, 0, \underbrace{1}_{i-th}, 0, \cdots, 0]\), r = \(b_i\), q = 1
\(H_0: \beta_i + \beta_j = b\) \(R = [0, \cdots, \underbrace{1}_{i-th}, 0, \cdots, \underbrace{1}_{j-th}, \cdots 0]\), r = \(b\), q = 1
\(H_0: \beta_i = \beta_j\) \(R = [0, \cdots, \underbrace{1}_{i-th}, 0, \cdots, \underbrace{-1}_{j-th}, \cdots 0]\), r = 0, q = 1
\(H_0: [\beta_1, \cdots, \beta_k]' = 0\) \(R = [0, \textbf{I}_{k}]\), r = 0, q = k
\(H_0: \boldsymbol{\beta}_2 = 0\) \(R = [0_{k_2 \times k_1 }, \textbf{I}_{k_2}]\), r = 0, q = \(k_2\)

Testes de hipóteses mais gerais

Sob as hipóteses do modelo linear clássico e condicional em \(\textbf{X}\), \[\hat{\beta} \sim N(\beta, \sigma^2 (X'X)^{-1}),\]

\[R\hat{\beta} \sim N(R\beta, \sigma^2 R(X'X)^{-1}R'),\]

\[R\hat{\beta} - R\beta \sim N(0, \sigma^2 R(X'X)^{-1}R'),\]

Sob \(H_0\)

\[R\hat{\beta} - r \sim N(0, \sigma^2 R(X'X)^{-1}R'),\]

\[(R\hat{\beta} - r)' [\sigma^2 R(X'X)^{-1}R']^{-1}(R\hat{\beta} - r) \sim \chi^2_q,\]

Testes de hipóteses mais gerais

Por outro lado, sabemos que \[(n - k - 1)s^2/\sigma^2 = \dfrac{\hat{u}'\hat{u}}{\sigma^2} \sim \chi^2_{n-k-1}\]

Então, \[\dfrac{(R\hat{\beta} - r)' [R(X'X)^{-1}R']^{-1}(R\hat{\beta} - r)/q}{\hat{u}'\hat{u}/(n-k-1)}\sim F(q, n-k-1)\] ou, equivalentemente,

\[(R\hat{\beta} - r)' [s^2(X'X)^{-1}]^{-1}(R\hat{\beta} - r)/q\sim F(q, n-k-1)\]

Observação \(t^2_n = F(1, n)\)

Testes de hipóteses mais gerais

  • Caso 2: \(H_0: \beta_i = b\)

\[H_0: R\beta = b\]

  • \(R = [0, \cdots, 0, 1, 0, \cdots, 1]\), \(r = b\) e \(q =1\).
  • \((R\hat{\beta} - r)' [s^2R(X'X)^{-1}R']^{-1}(R\hat{\beta} - r)/q \rightarrow \dfrac{(\hat{\beta}_j - b)^2}{s^2[X'X]^{-1}_{jj}} \sim F(1, n-k-1)\)
  • \(\dfrac{\hat{\beta}_j - b}{s \sqrt{[X'X]^{-1}_{jj}}} \sim t_{n - k- 1}\)

Testes de hipóteses mais gerais

  • Caso 6: \(H_0: \boldsymbol{\beta}_2 = 0\)

\[H_0: R\beta = 0\]

  • \(R = [0_{k_2 \times k_1} \textbf{I}_{k_2}]\), \(r = 0\) e \(q = k_2\).
  • Se particionarmos \(\textbf{X} = [\textbf{X}_1 \textbf{X}_2]\), temos que \(X'X = \left[ {\begin{array}{cc} X_1' X_1 & X_1'X_2 \\ X_2'X_1 & X_2'X_2 \\ \end{array} } \right]\)

Tip

\(A = \left[ {\begin{array}{cc} A_{11} & A_{12} \\ A_{21} & A_{22} \\ \end{array} } \right] \rightarrow A^{-1} = \left[ {\begin{array}{cc} A_{11}^{-1} + A_{11}^{-1}A_{12}B_{22}A_{21}A_{11}^{-1} & -A_{11}^{-1}A_{12}B_{22} \\ -B_{22}A_{21}A_{11}^{-1} & B_{22} \\ \end{array} } \right],\) em que \(B_{22} = (A_{22} - A_{21}A_{11}^{-1}A_{12})^{-1}\)

Testes de hipóteses mais gerais

Note que: \[B_{22} = (A_{22} - A_{21}A_{11}^{-1}A_{12})^{-1} =\] \[(\underbrace{X_2'X_2 - X_2'X_1(X_1'X_1)^{-1}X_1'X_2}_{\underbrace{X_2'(I - X_1(X_1'X_1)^{-1}X_1') X_2}_{X_2'M_1 X_2}})^{-1}\]

Então, \((R\hat{\beta} - r)' [s^2R(X'X)^{-1}R']^{-1}(R\hat{\beta} - r)/q \rightarrow (\hat{\boldsymbol{\beta}}_2)'(s^{-2} X_2'M_1X_2) (\hat{\boldsymbol{\beta}}_2)/k_2 \sim F_{k_2, n - k - 1}\)

Testes de hipóteses mais gerais

Por outro lado,

\[Y = [X_1, X_1][\boldsymbol{\hat{\beta}}_1,\boldsymbol{\hat{\beta}}_2]'+ \hat{u}\]

\[M_1 Y = \underbrace{M_1X_1 \boldsymbol{\hat{\beta}}_1}_{0} + M_1X_2 \boldsymbol{\hat{\beta}}_2 + \underbrace{M_1 \hat{u}}_{\hat{u}}\]

\[\underbrace{Y'M_1'M_1Y}_{Y'M_1Y} = \boldsymbol{\hat{\beta}}_2'X_2' M_1X_2 \boldsymbol{\hat{\beta}}_2 + \hat{u}'\hat{u}\]

\[\dfrac{(Y'M_1Y - \hat{u}'\hat{u})/k_2}{\hat{u}'\hat{u}/(n - k -1)} = \dfrac{(SQRr - SQRi)/k_2}{SQRi/(n - k - 1)} \sim F_{k_2, n - k -1}\]

Testes de hipóteses mais gerais

  • Todos os testes foram obtidos sob HRLM1–HRML6.
  • O que acontece se HRML6 não se verifica? A estatística t e estatística F não terão mais distribuições t e F, respecivamente.
  • Quando o tamanho amostral é grande, a estaística t e estatística F terão distribuições aproximadamente t e F, respectivamente.
  • E se o tamanho amostral não for grande? Bootstrap!