Skip to main content

Sabemos que uma previsão não se trata de algo exato, por isso é interessante estimarmos um intervalo de confiança para as previsões. Para isso, será necessário uma suposição adicional para os erros de previsões, ou seja, além de supormos que $ E(a_t) = 0 $, $ Var(a_t) = \sigma_a^2 $ para todo t e $ E(a_ta_s) = 0 $, $ t \not= s $, iremos supor que $ a_t \sim N(0,\sigma_a^2) $, para cada t.

Segue que, dado os valores passados e presentes da série, $ X_t, X_{t-1}, \hdots $, a distribuição condicional de $ X_{t+h} $ será $ N(\hat{X}_t(h), Var(h)) $.

Sabemos que

 

$$Z = \dfrac{X_{t+h} - \hat{X}_t(h)}{[Var(h)]^{1/2}} \sim N(0,1)$$

 

fixando o coeficiente de significância $ \alpha $, temos que

 

$$P(-z_{\alpha} \ \textless \ Z \ \textless \ z_{\alpha}) = 1 - \alpha$$

 

ou seja, um intervalo de confiança com nível de confiança de $ (1 - \alpha) $ é dado por

 

$$\hat{X}_t(h) - z_{1-\alpha}[Var(h)]^{1/2} \le X_{t+h} \le \hat{X}_t(h) + z_{1-\alpha}[Var(h)]^{1/2}.$$

 

Mas, temos que em Var(h), o valor de $ \sigma^2_a $ não é conhecido e, portanto, é substituido pela sua estimativa $ \sigma^2_a $. Desta forma, o intervalor de confiança para a previsão de $ X_{t+h} $ será dado por

 

$$\hat{X}_t(h) - z_{1-\alpha}\hat{\sigma}_a^2\Bigg[1+ \sum^{h-1}_{j=1} \psi_j^2 \Bigg]^{1/2} \le X_{t+h} \le \hat{X}_t(h) + z_{1-\alpha}\hat{\sigma}_a^2\Bigg[1+ \sum^{h-1}_{j=1} \psi_j^2 \Bigg]^{1/2}.$$

 

Exemplo 4.8.4.1: Vamos determinar um intervalo de confiança para $ X_{t+h} $ no Exemplo 4.8.3.2 para h = 3.

Assim, temos

 

$$\hat{Var}(3) = (1 + \psi_1^2 + \psi_2^2)\hat{\sigma}^2_a, \text{ onde } \hat{\sigma}^2_a = 0,17$$

 

Logo,

 

$$\hat{Var}(3) = (1+ (-0,4175)^2 + (0,3351)^2)0,17 =0,219$$

 

Para $ \alpha = 5\% $ temos $ z_{\alpha} = 1,96 $. Portanto,

 

$$\hat{X}_t(3) - 1,96[\hat{Var}(3)]^{1/2} \le X_{t+3} \le \hat{X}_t(3) + 1,96[\ha{Var}(3)]^{1/2}$$

 

Desta forma, um intervalor de confiança para $ X_{103} $ é $ [3,703; 5,536] $.