1.3 - Processos Estácionarios

Você está aqui

Dizemos que um processo é estacionário se todas as características do comportamento do processo não são alterados no tempo, ou seja, o processo se desenvolve no tempo em torno da média, de modo que a escolha de uma origem dos tempos não é importante.

 

Definição 1.3.1: 

Um processo estocástico $Z = \{Z(t), t \in T\}$ diz-se estritamente estacionário se todas as distribuições finito-dimensionais permanecem as mesmas sob translações no tempo, ou seja,

 

$F(z_1, \dots , z_n;t_1 + \tau , \dots , t_n + \tau) = F(z_1, \dots , z_n;t_1, \dots , t_n),$ para quaisquer $t_1, \dots , t_{n +\tau}$ de $T$.

 

Em particular, se um processo é estritamente estacionário significa que todas as distribuições unidimensionais são invariantes sob translações do tempo, logo a média $\mu (t)$ e variância $V(t)$ são constantes, isto é,

 

$\mu (t) = \mu, \hspace{0.3cm} V(t) = \sigma^2,$ para todo $t \in T$.

 

Definição 1.3.2: 

Dizemos que um processo estocástico $Z(t) = \{Z(t), t \in T\}$ é fracamente estacionário ou estacionário de segunda ordem se e somente se

 

(i) $E[Z(t)] = \mu (t) = \mu$, constante, para todo $t \in T$;

(ii) $E[Z^2(t)] \textless \infty$, para todo $t \in T$;

(iii) $\gamma (t_1,t_2) = Cov[Z(t_1), Z(t_2)]$ é uma função de $|t_1 - t_2|$.

 

Denominaremos simplesmente por processo estacionário quando o processo for fracamente estacionário. Iremos tratar de modelos que são apropriados para os processos estacionários homogêneos, isto é, processos cujo nível e/ou inclinação mudam com o decorrer do tempo. Tais processos podem tornar-se estacionários por meio de diferenças sucessivas.

Definição 1.3.3:

Um processo estocástico $Z = \{Z(t), t \in T\}$ diz-se Gaussiano (ou normal) se para qualquer conjunto $t_1$,$t_2$,...,$t_n$ de $T$, as v.a. Z($t_1$),...,Z($t_n$) tem distribuição normal n-variada.

Se um processo for Gaussiano (ou normal) ele será determinado pelas médias e covariâncias; em particular, se ele for estacionário de segunda ordem, ele será estritamente estacionário. 

Função de Autocovariância

Seja $\{X_t, t \in Z\}$ um processo estacionário real discreto de média zero, sua função de autocovariância (f.a.c.v.) é definida por $\gamma_{\tau} = E[X_tX_{t + \tau}]$.

 

Proposição 1.3.1:

A facv $\gamma_{\tau}$ deve satisfazer as seguintes propriedades:

(i) $\gamma_0 \textgreater 0$;

(ii) $\gamma_{-\tau} = \gamma_{\tau}$;

(iii) $|\gamma_{\tau}| \le \gamma_o$;

(iv) $\gamma_{\tau}$ é não negativa definida, tal que $\sum^{n}_{j = 1} \sum^{n}_{k = 1}a_ja_k\gamma_{\tau_j - \tau_k} \ge 0,$

para quaisquer números reais $a_1, \dots , a_n,$ e $\tau_1, \dots , \tau_n$ de $Z$.

 

Prova:

 (i) e (ii) decorrem imediatamente da definição de $\gamma_{\tau}$.

(iii) Basta notarmos que

$$E[X_{t + \tau} \pm X_t]^2 = E[X^2_{t + \tau} \pm 2X_{t + \tau}X_t + X^2_t] \ge 0$$

mas, sabemos que

$$X^2_{t + \tau} \pm 2X_{t + \tau}X_t + X^2_t = \gamma^2 \pm 2\gamma_{\tau} + \sigma^2 \ge 0$$

ou seja,

$$2\gamma_0 \pm 2\gamma_{\tau} \ge 0 \Longrightarrow |\gamma_{\tau}| \le \gamma_0$$.

(iv) Temos que

$$\sum^{n}_{j = 1} \sum^{n}_{k = 1} a_ja_k\gamma_{\tau_j - \tau_k} = \sum^{n}_{j = 1} \sum^{n}_{k = 1} a_ja_kE[X_{\tau_j}X_{\tau_k}] = E[\sum^{n}_{j = 1} a_jX_{\tau_j}]^2 \ge 0$$

Note que a facv de um processo estacionário tende a zero quando $|\tau| \rightarrow 0.$

Função de Autocorrelação

A função de autocorrelação do processo é definida por

$$\rho_{\tau} = \dfrac{\gamma_{\tau}}{\gamma_0}, \tau \in Z$$

e possui as mesmas propriedades da função de autocovariância $\gamma_{\tau}$, exceto que agora temos $\rho_0 = 1$.

A função de autocorrelação é utilizada para identificarmos um modelo adequado para a série temporal.

 

Exemplo 1.3.1:

Voltando ao Exemplo 1.2.1, temos uma sequência aleatória. Se as v.a.$X_1$,$X_2$, ... tiverem todas a mesma distribuição, teremos então uma sequência de v.a. independentes e identicamente distribuídas. Neste caso, o processo $X_n$ é estacionário. Se $E[X_n] = \mu$ e $Var[X_n] = \sigma^2$, para todo $n \ge 1$, então temos

$$\gamma_{\tau} = Cov[X_n, X_{n + \tau}] = \left\{\begin{array}{l} \sigma^2, \quad \hbox{se} \ \tau = 0 \\ 0, \quad \ \hbox{se} \ \tau \neq 0 \end{array} \right.$$

Portanto, segue que $\rho_{\tau} = 1$, para $\tau = 0$ e $\rho_{\tau} = 0$, caso contrário.

 

Exemplo 1.3.2:

Dando continuidade ao Exemplo 1.2.2 temos um Passeio Aleatório. Então, temos que $E[X_t] = t\mu_{\varepsilon}$ e $Var[X_t] = t\sigma^2_{\varepsilon}$. Podemos notar que se trata de um processo não estacionário, pois a média e a variância dependem de t. Calculando a função de autocovariância temos

 

$$Cov[X_t, X_{t - k}] = Cov[\varepsilon_1 + \dots + \varepsilon_{t-k} + \dots + \varepsilon_t , \varepsilon_1 + \dots + \varepsilon_{k-t}] = (t - k)\sigma_{\varepsilon}^2$$

assim, a função de autocorrelação fica

$$\rho_t = \dfrac{t - k}{t}.$$

Operador de Retardo

Considere um processo MA(q), podemos expressa-lo utilizando um operador de retardo, denotado por B, definido por

$$B^jX_t = X_{t-j}$$

Então, podemos reescrever

$$X_t = a_t + \theta_1a_{t-1} + \theta_2a_{t-2} + \cdtos + \theta_q_a{t-q}$$

$$X_t = (1 + \theta_1B + \theta_2B^2 + \cdots + \theta_qB^q)a_t = \theta(B)a_t$$

 

onde $\theta(B)$ é um polinômio de ordem q em B.  Dizemos que um processo MA(q) é inversível se as raízes da equação

$$\theta (B) = 1 + \theta_1B + \theta_2B^2 + \cdots + \theta_qB^q = 0$$

estiverem fora do círculo unitário, ou seja, dado $b_1, \hdots, b_q$ soluções de $\theta(B) = 0$ então o processo será inversível se $|b_j| \textgreater 1, j = 1,\hdots,q$, dizemos então que o processo é estacionário.

 

No caso de um processo AR(p)

$$X_t = \phi_0 + \phi_1X_{t-1} + \phi_pX_{t-p} + \a_t$$

Utilizando o resultado de que um processo AR(p) pode ser escrito como um processo MA infinito com coeficientes $\omega_0 , \omega_1, \hdots$, ou seja

$$X_t = \omega_0a_t + \omega_1a_{t-1} + \cdots = (\omega_0 + \omega_1B + \omega_2B^2 + \cdots)a_t = \omega(B)a_t$$

 

segue que um processo AR(p) será estacionário se $\sum_j \omega_j^2 \textless \infty$. Os $\omega_j$ podem ser determinados por

 

$$\omega_0 = 1$$

$$\omega_1 = \omega_0\phi_1$$

$$\omega_2 = \omega_1\phi_1 + \omega_0\phi_2$$

$$ \quad \vdots $$

$$\omega_i = \sum_{j=1}^i \omega_{i-j}\phi_j$$

 

Em um modelo misto ARMA(p,q), utilizando o operador de retardo, podemos escrever

$$X_t = \phi_1X_{t-1} + \cdots \phi_pX_{t-p} + a_t + \theta_1a_{t-1} + \cdots + \theta_qa_{t-q}$$

$$(1 - \phi_1B - \phi_2B^2 - \cdots - \phi_pB^p)X_t = (1 + \theta_1B + \theta_2B^2 + \cdtos + \theta_qB^q)a_t$$

 

ou seja,

$$\phi(B)X_t = \theta(B)a_t$$

 

Os valores de $\phi_1, \hdots, \phi_p$ que tornam o processo estacionário são tais que as raízes de $\phi(B) = 0$ estão fora do círculo unitário. Analogamente, os valores de $\theta_1, \hdots, \theta_q$ que tornam o processo inversível são tais que as raízes de $\theta(B) = 0$ estão fora do círculo unitário.

 

Exemplo 1.3.3:

Considere um processo ARMA(1,1) dado por $X_t = 0,7X_{t-1} + a_t + 0,6a_{t-1}$. Vamos analisar se este processo é estacionário e inversível.

Escrevendo em forma dos operadores de retardo temos

 

$$(1 - 0,7B)X_t = (1 + 0,6B^*)a_t$$

 

Então temos que $\phi(B) = 1 - 0,7B$ e $\theta(B^*) = 1 + 0,6B^*$. Logo,

 

$$(1 - 0,7B) = 0 \quad \Longleftrightarrow \quad B = \dfrac{1}{0,7} = 1,43$$

$$(1 + 0,6B^*) = 0 \quad \Longleftrightarrow \quad B^* = \dfrac{1}{-0,6} = -1,67$$

 

Concluímos que o processo é estacionário e inversível.

Séries Temporais

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]