[1] 1.142857+0.349927i 1.142857-0.349927i
[1] 1.195229 1.195229
ME607 - Séries Temporais
Instituto de Matemática, Estatística e Computação Científica (IMECC),
Universidade Estadual de Campinas (UNICAMP).
Um processo estocástico \(\{Y_t\}\) é dito ARMA(p,q) se seu processo gerador de dados é dado por \[\tilde{Y}_t\underbrace{(1 - \phi_1 B - \cdots - \phi_p B^p)}_{\phi_p(B)} = \underbrace{(1 + \theta_1 B + \cdots + \theta_q B^q)}_{\theta_q(B)} \epsilon_t,\] equivalentemente, \[\tilde{Y}_t = \phi_1 \tilde{Y}_{t-1} + \phi_2 \tilde{Y}_{t-2} + \cdots \phi_p \tilde{Y}_{t-p} + \epsilon_t + \theta_1 \epsilon_{t-1} + \cdots + \theta_q \epsilon_{t-q}\] em que \(\phi_1, \cdots, \phi_p\) e \(\theta_1, \cdots, \theta_1\) são parâmetros reais e \(\epsilon_t \sim RB(0, \sigma^2_{\epsilon})\). Assumimos também que \(\phi_p(B)\) e \(\theta_q(B)\) não tem raizes em comum1.
\[\tilde{Y}_t\underbrace{(1 - \phi_1 B - \cdots - \phi_p B^p)}_{\phi_p(B)} = \underbrace{(1 + \theta_1 B + \cdots + \theta_q B^q)}_{\theta_q(B)} \epsilon_t,\]
Um processo ARMA(p, q) estacionário e invertível pode ser escrito como
\[\pi(B)\tilde{Y}_t = \epsilon_t,\] em que \(\pi(B) = \dfrac{\phi_p(B)}{\theta_q(B)} = 1 - \pi_1 B - \pi_2 B^2 - \cdots\)
\[\tilde{Y}_t = \psi(B) \epsilon_t,\] em que \(\psi(B)= \dfrac{\theta_q(B)}{\phi_p(B)} = 1 + \psi_1 B + \psi_2 B^2 + \cdots\)
Seja o processo ARMA(p, q) estacionário e invertível: \[\tilde{Y}_t = \phi_1 \tilde{Y}_{t-1} + \phi_2 \tilde{Y}_{t-2} + \cdots \phi_p \tilde{Y}_{t-p} + \epsilon_t + \theta_1 \epsilon_{t-1} + \cdots + \theta_q \epsilon_{t-q}\]
Então,
\(\gamma_k = \mathbb{E}(\tilde{Y}_{t-k}\tilde{Y}_{t}) = \phi_1 \gamma_{k-1} + \cdots \phi_p \gamma_{k-p} + \mathbb{E}(\tilde{Y}_{t-k}\epsilon_t) + \theta_1 \mathbb{E}(\tilde{Y}_{t-k}\epsilon_{t-1}) +\cdots + \theta_q \mathbb{E}(\tilde{Y}_{t-k} \epsilon_{t-q})\)
Note que, para \(k > i\), \(\mathbb{E}(\tilde{Y}_{t-k} \epsilon_{t-i}) = 0\).
Assim, para \(k > q\)
\[\gamma_k = \phi_1 \gamma_{k-1} + \cdots + \phi_p \gamma_{k-p} \rightarrow \rho_k = \phi_1 \rho_{k-1} + \cdots + \phi_p \rho_{k-p}\]
Após a defasagem \(q\), a ACF de um ARMA(p,q) é semelhante à ACF de um AR(p). Isto pode ser utilizado para identificar o modelo
Por outro lado, note que se o processo for estacionário, pode ser escrito como um MA(\(\infty\)).
\[\tilde{Y}_t = \displaystyle \sum_{j = 0}^{\infty} \psi_j \epsilon_{t-j}.\]
Então,
\[\gamma(k) = \mathbb{E}(\tilde{Y}_{t+k}\tilde{Y}_t) = \sigma_{\epsilon}^2 \displaystyle \sum_{j=0}^{\infty}\psi_j \psi_{j+k}\]
Seja o processo estacionário e invertível ARMA(1,1) da forma \[Y_t - \phi Y_{t-1} = \epsilon_t + \theta \epsilon_{t-1}, \quad \epsilon_t \sim RB(0, \sigma_{\epsilon}^2).\]
A função de autocorrelação parcial de um processo ARMA(p,q) é definida pela função \(\alpha(\cdot)\), em que
com \(\phi_{kk}\) sendo o último elemento de \[\Gamma^{-1}_h \times [\gamma(1), \gamma(2), \cdots, \gamma(k)]',\] em que \(\Gamma_h = [\gamma(i-j)]_{i,j = 1}^{h}\)
Seja o processo ARMA(1,1) dado por \[Y_t = 0.5Y_{t-1} + \epsilon_t + 0.4 \epsilon_{t-1}, \quad, \epsilon_t \sim RB(0, \sigma_{\epsilon}^2).\]
O processo é estacionário? é invertível?
O processo é estacionário e invertível.
Seja o processo ARMA(2,2) dado por \[(1 - 0.7B - 0.4B^2)Y_t = (1-1.6B + 0.7B^2)\epsilon_t\]
o processo é estacionário? é invertível?
Sem perda de generalizade, consideremos um processo ARMA(p,q) estacionário com média zero, \[\phi_p(B)Y_t= \theta_q(B)\epsilon_t\]
Então, \[\begin{equation}\label{ARMA_MA_infty} Y_t= \dfrac{\theta_q(B)}{\phi_p(B)} \epsilon_t = \epsilon_t + \psi_1 \epsilon_{t-1} + \psi_2 \epsilon_{t-2} + \cdots\end{equation}\]
Fazendo \(\psi_0 = 1\), \[Y_{T+h} = \displaystyle \sum_{j = 0}^{\infty} \psi_j \epsilon_{T+h-j}\]
\[\hat{Y}_{T+h} = \psi^{\ast}_l \epsilon_{T} + \psi^{\ast}_{l+1} \epsilon_{T-1} + \psi^{\ast}_{l+2} \epsilon_{T-2} +\cdots,\] em que \(\psi^{\ast}s\) precisam ser determinados.
O erro quadrático médio da previsão é dado por:
\[\begin{align*} \mathbb{E}(Y_{T+h} - \hat{Y}_{T+h})^2 = \mathbb{E}( & \epsilon_{T+h} + \psi_1 \epsilon_{T+h-1} + \cdots + \psi_h \epsilon_{T} + \cdots \\ & - \psi^{\ast}_h \epsilon_T - \psi^{\ast}_{h+1} \epsilon_{T-1} - \psi^{\ast}_{h+2} \epsilon_{T-2} - \cdots )^2 \\ = \mathbb{E}( & \epsilon_{T+h} + \psi_1 \epsilon_{T+h-1} + \cdots + \psi_{h-1} \epsilon_{T+1} \\ & + (\psi_h - \psi_h^{\ast})\epsilon_T + (\psi_{h+1} - \psi_{h+1}^{\ast})\epsilon_{T-1} + \cdots)^2 \end{align*}\]
Como \(\{\epsilon_t \}\) é ruido branco,
\[\mathbb{E}(Y_{T+h} - \hat{Y}_{T+h})^2 = \sigma_{\epsilon}^2 \displaystyle \sum_{j = 0}^{h-1}\psi_j^2 + \sigma_{\epsilon}^2 \sum_{j = h}^{\infty}(\psi_j-\psi_j^{\ast})^2\]
Que é minimizado quando \(\psi_j = \psi_j^{\ast}\) para \(j \geq h\).
Assim, temos que \[\hat{Y}_{T+h} = \psi_h \epsilon_{T} + \psi_{h+1} \epsilon_{T-1} + \psi_{h+2} \epsilon_{T-2}+ \cdots\]
Utilizando o fato de que \[\mathbb{E}(\epsilon_{T+h}|Y_{T}, Y_{T-1}, \cdots) = \begin{cases} 0 & \quad , se \quad h>0\\ \epsilon_{T+h} & \quad , se \quad h\leq 0\\ \end{cases}\]
Temos, \[\mathbb{E}(Y_{T+h}|Y_{T}, Y_{T-1}, \cdots) = \psi_h \epsilon_T + \psi_{h+1} \epsilon_{T-1} + \psi_{h+2}\epsilon_{T-2} + \cdots = \hat{Y}_{T+h}\]
O menor error quadrático médio da previsão \(Y_{T+h}\) é obtido quando \(\hat{Y}_{T+h} = \mathbb{E}(Y_{T+h} | Y_T, T_{T-1}, \cdots) = \psi_h \epsilon_T + \psi_{h+1} \epsilon_{T-1} + \psi_{h+2}\epsilon_{T-2} + \cdots\)
O erro de previsão é dado por:
\[e(h) = Y_{T+h}-\hat{Y}_{T+h} = \psi_0 \epsilon_{T+h} + \psi_1 \epsilon_{T+h-1} + \cdots + \psi_{h-1}\epsilon_{T+1}.\]
A variância do erro de previsão é dada por: \[\mathbb{V}(e(h)) = \sigma_{\epsilon}^2 \displaystyle \sum_{j = 0}^{h-1}\psi_j^2.\]
Sob normalidade, o intervalo de previsão \((1-\alpha)\times 100\%\) é dado por \[\hat{Y}_{T+h} \pm Z_{\alpha/2} \sqrt{\sigma_{\epsilon}^2\displaystyle \sum_{j = 0}^{h-1}\psi_j^2}.\]
A previsão de \(Y_{T+h}\) que minimiza o erro quadrático médio de previsão é dada por \[\hat{Y}_{T+h} = \mathbb{E}(Y_{T+h}|Y_T, Y_{T-1}, \cdots).\]
Note que a previsão pode ser facilmente obtida através da equação de diferenças.
\[Y_{T+h} = \phi_1 Y_{T+h-1} + \cdots + \phi_p Y_{T+h-p} + \epsilon_{T+h} + \theta_1 \epsilon_{T+h-1} + ... + \theta_q \epsilon_{T+h-q}\]
Aplicando \(\mathbb{E}( \cdot | Y_T, Y_{T-1}, \cdots)\) temos:
\[ \begin{align*} \hat{Y}_{T+h} &= \phi_1 \mathbb{E}(Y_{T+h-1}| Y_T, Y_{T-1}, \cdots) + \cdots + \phi_p \mathbb{E}(Y_{T+h-p} | Y_T, Y_{T-1}, \cdots) + \\ &\mathbb{E}(\epsilon_{T+h}| Y_T, Y_{T-1}, \cdots) + \theta_1 \mathbb{E}(\epsilon_{T+h-1}| Y_T, Y_{T-1}, \cdots) + ... + \theta_q \mathbb{E}(\epsilon_{T+h-q}| Y_T, Y_{T-1}, \cdots) \end{align*} \]
Exemplo: Seja o processo (estacionário e invertível) ARMA(1,1) da forma \[(1-\phi B)Y_t = (1 + \theta B) \epsilon_t, \quad \epsilon_t \sim RB(0, \sigma_{\epsilon}^2).\]
Calcular \(\hat{Y}_{T+h}\) e \(\mathbb{V}(e(h))\)
Sabemos que \(\mathbb{V}(e(h)) = \sigma_{\epsilon}^2 \displaystyle \sum_{j = 0}^{h-1} \psi_j^2\). Assim, basta sabermos quem são \(\psi_0, \psi_1, ..., \psi_{h-1}\)
\[(1 - \phi B) (1 + \psi_1 B + \psi_2 B^2 + \cdots) = (1 + \theta B)\] - \(\psi_1 = \phi + \theta\) - \(\psi_2 = \phi (\phi + \theta)\) - \(\psi_3 = \phi^2 (\phi + \theta)\) - \(\psi_h = \phi^{h-1} (\phi + \theta)\)
\[\mathbb{V}(e(h)) = \sigma_{\epsilon}^2 \Big( 1 + \displaystyle \sum_{j = 1}^{h-1} [\phi^{j-1} (\phi + \theta)]^2 \Big)\]
Lembre-se que todo processo ARMA invertível pode ser escrito como um AR(\(\infty\)).
\[Y_{T+h} = \epsilon_{T+h} + \displaystyle \sum_{j = 1}^{\infty} \pi_j Y_{T+h-j} \equiv \pi(B) Y_{T+h} = \epsilon_{T+h},\] em que \(\pi(B) = \dfrac{\phi(B)}{\theta(B)}.\)
\[\hat{Y}_{T+h} = \displaystyle \sum_{j = 1}^{\infty} \pi_j \hat{Y}_{T+h-j}.\]
em que \(\pi_j^{(h)} = \pi_{j + h - 1} + \displaystyle \sum_{i = 1}^{h-1}\pi_i \pi_j^{(h-i)}\) e \(\pi_j^{(1)} = \pi_j\).
Exemplo: Seja o processo (estacionário e invertível) ARMA(1,1) da forma \[(1-\phi B)Y_t = (1 + \theta B) \epsilon_t, \quad \epsilon_t \sim RB(0, \sigma_{\epsilon}^2).\]
\[(1 - \phi B) = (1 - \pi_1 B - \pi_2 B^2 - \cdots) (1 + \theta B)\]
Igualando os termos comoo no exemplo anterior, \(\pi_1 = \phi + \theta\), \(\pi_2 = - \theta (\phi + \theta)\), … \(\pi_j = (-\theta)^{j-1}(\phi + \theta)\).
Assim, temos visto três formas de calcular \(\hat{Y}_{T+h}\):
Atualização das previsões:
Então, \[\hat{Y}_{T + 1 + h| T + 1} = \hat{Y}_{T + h + 1 | T} + \psi_h \epsilon_{T+1}.\]
Ou seja, a previsão de \(Y_{T+h+1}\) feita no instante \(T\) pode ser atualizada, após observado \(Y_{T+1}\), adicionando-se um múltiplo do erro de previsão \(\epsilon_{T+1} = Y_{T+1} - \hat{Y}_{T+1|T} = e(1)\)
Carlos Trucíos (IMECC/UNICAMP) | ME607 - Séries Temporais | ctruciosm.github.io