1.3 - Processos Estácionarios

Você está aqui

Dizemos que um processo é estacionário se todas as características do comportamento do processo não são alterados no tempo, ou seja, o processo se desenvolve no tempo em torno da média, de modo que a escolha de uma origem dos tempos não é importante.

 

Definição 1.3.1: 

Um processo estocástico $ Z = \{Z(t), t \in T\} $ diz-se estritamente estacionário se todas as distribuições finito-dimensionais permanecem as mesmas sob translações no tempo, ou seja,

 

$ F(z_1, \dots , z_n;t_1 + \tau , \dots , t_n + \tau) = F(z_1, \dots , z_n;t_1, \dots , t_n), $ para quaisquer $ t_1, \dots , t_{n +\tau} $ de $ T $.

 

Em particular, se um processo é estritamente estacionário significa que todas as distribuições unidimensionais são invariantes sob translações do tempo, logo a média $ \mu (t) $ e variância $ V(t) $ são constantes, isto é,

 

$ \mu (t) = \mu, \hspace{0.3cm} V(t) = \sigma^2, $ para todo $ t \in T $.

 

Definição 1.3.2: 

Dizemos que um processo estocástico $ Z(t) = \{Z(t), t \in T\} $ é fracamente estacionário ou estacionário de segunda ordem se e somente se

 

(i) $ E[Z(t)] = \mu (t) = \mu $, constante, para todo $ t \in T $;

(ii) $ E[Z^2(t)] \textless \infty $, para todo $ t \in T $;

(iii) $ \gamma (t_1,t_2) = Cov[Z(t_1), Z(t_2)] $ é uma função de $ |t_1 - t_2| $.

 

Denominaremos simplesmente por processo estacionário quando o processo for fracamente estacionário. Iremos tratar de modelos que são apropriados para os processos estacionários homogêneos, isto é, processos cujo nível e/ou inclinação mudam com o decorrer do tempo. Tais processos podem tornar-se estacionários por meio de diferenças sucessivas.

Definição 1.3.3:

Um processo estocástico $ Z = \{Z(t), t \in T\} $ diz-se Gaussiano (ou normal) se para qualquer conjunto $ t_1 $,$ t_2 $,...,$ t_n $ de $ T $, as v.a. Z($ t_1 $),...,Z($ t_n $) tem distribuição normal n-variada.

Se um processo for Gaussiano (ou normal) ele será determinado pelas médias e covariâncias; em particular, se ele for estacionário de segunda ordem, ele será estritamente estacionário. 

Função de Autocovariância

Seja $ \{X_t, t \in Z\} $ um processo estacionário real discreto de média zero, sua função de autocovariância (f.a.c.v.) é definida por $ \gamma_{\tau} = E[X_tX_{t + \tau}] $.

 

Proposição 1.3.1:

A facv $ \gamma_{\tau} $ deve satisfazer as seguintes propriedades:

(i) $ \gamma_0 \textgreater 0 $;

(ii) $ \gamma_{-\tau} = \gamma_{\tau} $;

(iii) $ |\gamma_{\tau}| \le \gamma_o $;

(iv) $ \gamma_{\tau} $ é não negativa definida, tal que $ \sum^{n}_{j = 1} \sum^{n}_{k = 1}a_ja_k\gamma_{\tau_j - \tau_k} \ge 0, $

para quaisquer números reais $ a_1, \dots , a_n, $ e $ \tau_1, \dots , \tau_n $ de $ Z $.

 

Prova:

 (i) e (ii) decorrem imediatamente da definição de $ \gamma_{\tau} $.

(iii) Basta notarmos que

$$E[X_{t + \tau} \pm X_t]^2 = E[X^2_{t + \tau} \pm 2X_{t + \tau}X_t + X^2_t] \ge 0$$

mas, sabemos que

$$X^2_{t + \tau} \pm 2X_{t + \tau}X_t + X^2_t = \gamma^2 \pm 2\gamma_{\tau} + \sigma^2 \ge 0$$

ou seja,

$$2\gamma_0 \pm 2\gamma_{\tau} \ge 0 \Longrightarrow |\gamma_{\tau}| \le \gamma_0$$

.

(iv) Temos que

$$\sum^{n}_{j = 1} \sum^{n}_{k = 1} a_ja_k\gamma_{\tau_j - \tau_k} = \sum^{n}_{j = 1} \sum^{n}_{k = 1} a_ja_kE[X_{\tau_j}X_{\tau_k}] = E[\sum^{n}_{j = 1} a_jX_{\tau_j}]^2 \ge 0$$

Note que a facv de um processo estacionário tende a zero quando $ |\tau| \rightarrow 0. $

Função de Autocorrelação

A função de autocorrelação do processo é definida por

$$\rho_{\tau} = \dfrac{\gamma_{\tau}}{\gamma_0}, \tau \in Z$$

e possui as mesmas propriedades da função de autocovariância $ \gamma_{\tau} $, exceto que agora temos $ \rho_0 = 1 $.

A função de autocorrelação é utilizada para identificarmos um modelo adequado para a série temporal.

 

Exemplo 1.3.1:

Voltando ao Exemplo 1.2.1, temos uma sequência aleatória. Se as v.a.$ X_1 $,$ X_2 $, ... tiverem todas a mesma distribuição, teremos então uma sequência de v.a. independentes e identicamente distribuídas. Neste caso, o processo $ X_n $ é estacionário. Se $ E[X_n] = \mu $ e $ Var[X_n] = \sigma^2 $, para todo $ n \ge 1 $, então temos

$$\gamma_{\tau} = Cov[X_n, X_{n + \tau}] = \left\{\begin{array}{l} \sigma^2, \quad \hbox{se} \ \tau = 0 \\ 0, \quad \ \hbox{se} \ \tau \neq 0 \end{array} \right.$$

Portanto, segue que $ \rho_{\tau} = 1 $, para $ \tau = 0 $ e $ \rho_{\tau} = 0 $, caso contrário.

 

Exemplo 1.3.2:

Dando continuidade ao Exemplo 1.2.2 temos um Passeio Aleatório. Então, temos que $ E[X_t] = t\mu_{\varepsilon} $ e $ Var[X_t] = t\sigma^2_{\varepsilon} $. Podemos notar que se trata de um processo não estacionário, pois a média e a variância dependem de t. Calculando a função de autocovariância temos

 

$$Cov[X_t, X_{t - k}] = Cov[\varepsilon_1 + \dots + \varepsilon_{t-k} + \dots + \varepsilon_t , \varepsilon_1 + \dots + \varepsilon_{k-t}] = (t - k)\sigma_{\varepsilon}^2$$

assim, a função de autocorrelação fica

$$\rho_t = \dfrac{t - k}{t}.$$

Operador de Retardo

Considere um processo MA(q), podemos expressa-lo utilizando um operador de retardo, denotado por B, definido por

$$B^jX_t = X_{t-j}$$

Então, podemos reescrever

$$X_t = a_t + \theta_1a_{t-1} + \theta_2a_{t-2} + \cdtos + \theta_q_a{t-q}$$

$$X_t = (1 + \theta_1B + \theta_2B^2 + \cdots + \theta_qB^q)a_t = \theta(B)a_t$$

 

onde $ \theta(B) $ é um polinômio de ordem q em B.  Dizemos que um processo MA(q) é inversível se as raízes da equação

$$\theta (B) = 1 + \theta_1B + \theta_2B^2 + \cdots + \theta_qB^q = 0$$

estiverem fora do círculo unitário, ou seja, dado $ b_1, \hdots, b_q $ soluções de $ \theta(B) = 0 $ então o processo será inversível se $ |b_j| \textgreater 1, j = 1,\hdots,q $, dizemos então que o processo é estacionário.

 

No caso de um processo AR(p)

$$X_t = \phi_0 + \phi_1X_{t-1} + \phi_pX_{t-p} + \a_t$$

Utilizando o resultado de que um processo AR(p) pode ser escrito como um processo MA infinito com coeficientes $ \omega_0 , \omega_1, \hdots $, ou seja

$$X_t = \omega_0a_t + \omega_1a_{t-1} + \cdots = (\omega_0 + \omega_1B + \omega_2B^2 + \cdots)a_t = \omega(B)a_t$$

 

segue que um processo AR(p) será estacionário se $ \sum_j \omega_j^2 \textless \infty $. Os $ \omega_j $ podem ser determinados por

 

$$\omega_0 = 1$$

$$\omega_1 = \omega_0\phi_1$$

$$\omega_2 = \omega_1\phi_1 + \omega_0\phi_2$$

$$ \quad \vdots $$

$$\omega_i = \sum_{j=1}^i \omega_{i-j}\phi_j$$

 

Em um modelo misto ARMA(p,q), utilizando o operador de retardo, podemos escrever

$$X_t = \phi_1X_{t-1} + \cdots \phi_pX_{t-p} + a_t + \theta_1a_{t-1} + \cdots + \theta_qa_{t-q}$$

$$(1 - \phi_1B - \phi_2B^2 - \cdots - \phi_pB^p)X_t = (1 + \theta_1B + \theta_2B^2 + \cdtos + \theta_qB^q)a_t$$

 

ou seja,

$$\phi(B)X_t = \theta(B)a_t$$

 

Os valores de $ \phi_1, \hdots, \phi_p $ que tornam o processo estacionário são tais que as raízes de $ \phi(B) = 0 $ estão fora do círculo unitário. Analogamente, os valores de $ \theta_1, \hdots, \theta_q $ que tornam o processo inversível são tais que as raízes de $ \theta(B) = 0 $ estão fora do círculo unitário.

 

Exemplo 1.3.3:

Considere um processo ARMA(1,1) dado por $ X_t = 0,7X_{t-1} + a_t + 0,6a_{t-1} $. Vamos analisar se este processo é estacionário e inversível.

Escrevendo em forma dos operadores de retardo temos

 

$$(1 - 0,7B)X_t = (1 + 0,6B^*)a_t$$

 

Então temos que $ \phi(B) = 1 - 0,7B $ e $ \theta(B^*) = 1 + 0,6B^* $. Logo,

 

$$(1 - 0,7B) = 0 \quad \Longleftrightarrow \quad B = \dfrac{1}{0,7} = 1,43$$

$$(1 + 0,6B^*) = 0 \quad \Longleftrightarrow \quad B^* = \dfrac{1}{-0,6} = -1,67$$

 

Concluímos que o processo é estacionário e inversível.

Séries Temporais

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]