2 - Modelo de Intensidade para v.a discretas na presença de censura

Você está aqui

Nesta seção, vamos abordar as idéias principais sobre o modelo de intensidade para as variáveis aleatórias discretas. Inicialmente, um processo estocástico é uma família de variáveis aleatórias $M=\{M(n):\in \mathbb{N}\}$ definidas sobre o espaço de probabilidade $(\Omega,\mathcal{F},P),$ no qual $\Omega$ é o espaço de Cantor (ver conteúdo de probabilidades). Assim, consideramos $(\Omega, \mathcal{F}, P)$ um espaço de probabilidade e seja $\mathcal{K}=\{1,\dots, k\}\subseteq \mathbb{N}$ finito ou infinito enumerável. O espaço amostral $\Omega$ usado neste modelo está descrito no conteudo de probabilidade na seção $\sigma$-álgebra e construção da v.a. Seja $Y$ uma variável aleatória com valores em $\mathcal{K}$  sendo $\pi_i=P[Y=i]$ a probabilidade da variável resposta ($Y$) assumir a $i$-ésima categoria. Assumindo que as categorias são mutuamente exclusivas, temos que $\pi_1+\pi_2+\dots+\pi_k=1.$ Neste caso, dizemos que $Y$ é uma variável aleatória discreta. Para mais detalhes das definições e as propriedades Martingale consulte o conteúdo de Processos Estocáticos.

Consideramos $W$ e $C$ duas variáveis aleatórias independentes discretas com valores em $\mathcal{K}$. A variável aleatória discreta $W$ descreve o evento de interesse, enquanto a variável aleatória discreta $C$ denota a variável de censura.  Seja $X$ a variável aleatória assumindo valores em $\mathcal{K}$ como em (2.1.1) definida por $$X=\min\{W,C\}.$$

Baseados em $X$ definimos os processos de contagem (para mais detalhes ver conteúdo de Processos de Contagem) $$R(i):=1\!\!1_{\{X\leq i,~X=W\}}~~~~\mbox{e}~~~~R^C(i):=1\!\!1_{\{X\leq i,~X = C\}},~~~~i=0,1,\dots,k.$$

O processo de contagem $R$ $(R^C)$  determina a categoria para o qual o evento de interesse (censura) ocorre. Tomamos $(\Omega,\mathcal{F},\mathbf{A}, P)$ a base estocástica com filtragem gerada por $R$ e  $R^C,$ como a seguir $$\mathcal{A}_0:=\{\Omega,\emptyset\},~~~~\mathcal{A}_i:=\sigma\{\Delta R(\ell),\Delta R^C(\ell):1\leq \ell \leq i\},~~~i\in \mathcal{K},$$

no qual, $\mathbf{A}=\{\mathcal{A}_i;i=0,1,\dots,k\}.$ Obtemos que $R$ é um processo $\mathbf{A}$-adaptado, não decrescente e consequentemente, obtemos da decomposição de Doob-Meyer que $R = Y +A,$ no qual $Y$ é um martingale e $A$ é um processo previsível não decrescente satisfazendo $$Y(i)=\sum^i_{\ell=1}(R(\ell)-E[R(\ell)|\mathcal{A}_{\ell-1}]) ~~~~\mbox{e}~~~A(i)=\sum^i_{\ell=1}(E[R(\ell)|\mathcal{A}_{\ell-1}]-R(\ell-1)),$$

com $A(0)=0, Y(0)=0.$ Calculando os processos estocásticos relacionados com a decomposição. $$A(1)=\displaystyle E[R(1)|\mathcal{A}_{0}]-R(0)=E[R(1)]=E[1\!\!1_{\{X\leq 1,~ X = W\}}]=P[W=1]$$

$$A(2)=\displaystyle A(1)+E[R(2)|\mathcal{A}_{1}]-R(1)=P[W=1]+E[R(2)-R(1)|\mathcal{A}_{1}]=$$

$$=P[W=1]+E[R(2)-R(1)|R(1),C]~~~~(2.1.1)$$

Notamos que, se $R(1)=1,$ então $$R(2)-R(1)=1\!\!1_{\{X=2,~ X = W\}}=0$$

Disto, obtemos $$E[R(2)-R(1)|R(1),C]=0,\quad \text{se}~R(1)=0~\text{e}~C=1$$

$$E[R(2)-R(1)|R(1),C]\neq0,\quad \text{se}~R(1)=0~\text{e}~C\geq 2$$

Com, $W$ e $C$ independentes obtemos $$E[R(2)-R(1)|R(1),C]=E[R(2)-R(1)|R(1)=0,C\geq2]1\!\!1_{\{R(1)=0,~C\geq2\}}=$$

$$=E[1\!\!1_{\{X\leq2,~X=W\}}-1\!\!1_{\{X\leq1,~X=W\}}| R(1)=0,~C\geq2]1\!\!1_{\{R(1)=0,~C\geq2\}}=$$

$$=E[1\!\!1_{\{W=2\}}| R(1)=0,~C\geq2]1\!\!1_{\{R(1)=0,~C\geq2\}}=$$

$$=\frac{P[W=2,R(1)=0,C\geq 2]}{P[R(1)=0,C\geq 2]}1\!\!1_{\{R(1)=0,~C\geq2\}}=$$

$$=\frac{P[W=2]}{P[W\geq 2]}1\!\!1_{\{R(1)=0,~C\geq2\}}$$

Assim, substituindo em (2.1.1) obtemos $$A(2)=\displaystyle A(1)+\frac{P[W=2]}{P[W\geq 2]}1\!\!1_{\{R(1)=0,~C\geq2\}}$$

Realizando analogamente os cálculos, obtemos $$A(k)=\displaystyle A(k-1)+\frac{P[W=k]}{P[W\geq k]}1\!\!1_{\{R(k-1)=0,~C\geq k\}}$$

De forma geral, obtemos $$A(i)=\displaystyle\sum^i_{\ell=1}\frac{P[W=\ell]}{P[W\geq \ell]}1\!\!1_{\{R(\ell-1)=0,~R^C(\ell-1)=0\}}=\sum^i_{\ell=1}\frac{P[W=\ell]}{P[W\geq \ell]}1\!\!1_{\{X\geq \ell\}}~~~\mbox{q.c.}~~~(2.1.2)$$

para qualquer $i\geq 1.$

Portanto, a função de intensidade $h:\{0,1, \cdots , k\} \rightarrow[0,1]$ associado ao processo de contagem $R$ é dada por $$h(i):=\frac{P[W=i]}{P[W\geq i]},\quad(2.1.3.1)$$

com $h(0)=0,~0~\textless~ h(i)~\textless~1,$ para qualquer $i=1,\dots,k$ e $h(k)=1$ (caso $k$ seja finito). Com isso, obtemos que $h$ descreve unicamente a distribuição de probabilidade da variável aleatória $W$ (que descreve o evento de interesse). Além disso, temos que $$P[W=i]=h(i)\prod^{i-1}_{\ell=1}[1-h(\ell)].$$

De fato, $$P[W\geq i-1]=\prod^{i-2}_{\ell=1}(1-h(\ell)), \quad \text{hipótese de indução}~~~~(2.1.3)$$

Por indução sobre $i$, obtemos que $$P[W\geq i]=1-\sum^{i-1}_{\ell=1}P[W=\ell]=1-\sum^{i-2}_{\ell=1}P[W=\ell]-P[W=i-1]=$$

$$\overset{(2.1.2)}{=}\prod^{i-2}_{\ell=1}(1-h(\ell))-P[W=i-1]=\prod^{i-2}_{\ell=1}(1-h(\ell))-h(i-1)P[W\geq i-1]=$$

$$=\prod^{i-2}_{\ell=1}(1-h(\ell))-h(i-1)\prod^{i-2}_{\ell=1}(1-h(\ell))=$$

$$=\prod^{i-1}_{\ell=1}(1-h(\ell))$$

Portanto $$P[W=i]=h(i)\prod^{i-1}_{\ell=1}(1-h(\ell))$$

Assim, concluímos que a relação apresentada na equação (2.1.3) é válida. Agora, vamos exemplificar algumas funções de intensidade para dados discretos à partir de distribuições de probabilidade conhecidas.

Exemplo 2.1: (Distribuição Geométrica)

$P[W=i]=(1-p)^i p$ com parâmetro $p,~ 0 ~\textless p~\textless~ 1.$ Assim, obtemos pela definição a função de intensidade para a distribuição Geométrica da seguinte forma $$h(i):=\frac{P[W=i]}{P[W\geq i]}=\frac{(1-p)^i p}{1-p\underbrace{\displaystyle\sum^i_{\ell=0}(1-p)^\ell}_{\frac{(1-p)^i-1}{(1-p)-1}}}=\frac{(1-p)^i p}{(1-p)^i}=p$$

que é uma taxa de falha constante.

Exemplo 2.2: (Distribuição Poisson)

$P[W=i]=\displaystyle\frac{e^{-\lambda}\lambda^i}{i!},~~i=1,2,\dots,~~\lambda\textgreater 0.$ Assim, obtemos pela definição a função de intensidade para a distribuição Poisson da seguinte forma $$h(i):=\frac{P[W=i]}{P[W\geq i]}=\frac{\frac{e^{-\lambda}\lambda^i}{i!}}{1-\displaystyle\sum^{i-1}_{j=1} \frac{e^{-\lambda}\lambda^j}{j!}}=\frac{\frac{e^{-\lambda}\lambda^i}{i!}}{e^{-\lambda}\displaystyle\sum^{\infty}_{j=i}\frac{\lambda^j}{j!}}=\frac{\lambda^i}{i!}\left(\sum^{\infty}_{j=i}\frac{\lambda^j}{j!}\right)^{-1}$$

Exemplo 3: (Distribuição Binomial)

$P[W=i]=\displaystyle{n \choose k}p^i(1-p)^{n-i},~~i=0,1,2,\dots,n.$ Assim, obtemos pela definição a função de intensidade para a distribuição Binomial da seguinte forma $$h(i):=\frac{P[W=i]}{P[W\geq i]}=\frac{\displaystyle{n \choose i}p^i(1-p)^{n-i}}{\displaystyle\sum^n_{j=i}{n \choose j}p^j(1-p)^{n-j}}=\displaystyle{n \choose i}\left(\displaystyle\sum^n_{j=i}{n \choose j}\left(\frac{p}{1-p}\right)^{j-i}\right)^{-1}$$

Exemplo 2.3: (Distribuição Binomial Negativa)

$P[W=i]=\displaystyle{k+i-1 \choose i}p^k(1-p)^{i},~~~~0\textless~p\textless~1,~n\textgreater 0,~i=0,1,2,\dots,n.$ Assim, obtemos pela definição a função de intensidade para a distribuição Binomial Negativa da seguinte forma  $$h(i):=\frac{P[W =i]}{P[W\geq i]}=\frac{\displaystyle{k+i-1 \choose i}p^k(1-p)^{i}}{\displaystyle\sum^n_{j=i}{k+j-1 \choose j}p^k(1-p)^{j}}=\displaystyle{k+i-1 \choose i}\left(\displaystyle\sum^n_{j=i}{k+j-1 \choose j}(1-p)^{j-i}\right)^{-1}$$

Exemplo 2.4: (Distribuição Série Logarítmica)

$P[W=i]=\displaystyle-\frac{\theta^i}{i~\log(1-\theta)},~~0\textless\theta\textless 1,~i=1,2,\dots. $ Assim, obtemos pela definição a função de intensidade para a distribuição Série Logarítmica da seguinte forma $$h(i):=\frac{P[W= i]}{P[W\geq i]}=\frac{\displaystyle-\frac{\theta^i}{i~\log(1-\theta)}}{-\displaystyle\sum^{\infty}_{j=i}\frac{\theta^j}{j~\log(1-\theta)}}=\frac{\theta^i}{i}\left(\displaystyle\sum^{i-1}_{j=1}\frac{\theta^j}{j}-\log(1-\theta)\right)^{-1}$$

Retornamos a caracterização do processo de contagem. Seja $H$ o processo de intensidade acumulado definido por $H(i):=\displaystyle \sum^i_{\ell=1}h(\ell)$ e $V(\ell):=1\!\!1_{\{X\geq \ell\}}$ o processo de risco, são dois processos adaptados à filtragem $\mathbf{A}=\{\mathcal{A}_i;i=0,1,\dots,k\}.$ $$A(i)=(V.H)(i)\overset{(2.1.2)}{=}\sum^i_{\ell=1}h(\ell)1\!\!1_{\{X\geq \ell\}}=\sum^i_{\ell=1}V(\ell)\Delta H(i),~~~~~i=0,1,\dots,k,~~~(2.1.4)$$

Assim, temos que $$R(i)=Y(i)+A(i)=$$

$$=\sum^i_{\ell=1}(R(\ell)-E[R(\ell)|\mathcal{A}_{\ell-1}])+\sum^i_{\ell=1}V(\ell)\Delta H(i)=$$

$$=\sum^i_{\ell=1}(R(\ell)-E[R(\ell)|\mathcal{A}_{\ell-1}])+(V.H)(i),~~~~~i=0,1,\dots,k,$$

Além disso, temos que a representação $A(i)$ é um processo previsível representado na forma multiplicativa, no qual $\Delta H(\ell)=H(\ell)-H(\ell-1)=h(\ell).$ Como $V$ é previsível, o processo $A$ é determinado pela função intensidade $h$ (ou, pela função intensidade acumulada $H$). Desta forma, temos uma relação um-a-um entre a função intensidade $h$ e a variável aleatória $W$ via relação (2.1.3). Portanto, para compararmos distribuições discretas vamos avaliar as funções intensidade envolvidas.
O processo (2.1.4) é denominado modelo de intensidade multiplicativo (ver Aalen (1978)) para variáveis aleatórias discretas. A seguir, apresentamos a inferência para o modelo discreto na presença de censura.

A seguir, apresentamos dois resultados, que são importantes na demonstração da consistência dos testes sob certas hipóteses alternativas.

Hipótese 2.1: (Proporcionalidade do tamanho da amostra)

Todos os resultados assintóticos, tem como hipótese o fato de que existe o limite $\displaystyle b_p=\lim_{n^\star\rightarrow \infty}\frac{n_p}{n}$ e $X^p$ é integrável para todo $p \in \mathcal{J}.$ Isto que dizer que as amostras aumentam de tamanho de forma proporcional.

Proposição 2.1:

O número de ítens sob risco na categoria $\ell,$ denotado por $V^{n_p}(\ell)$ tem distribuição binomial com parâmetros $n_p$ e $\theta^p_\ell,$ em que $\theta^p_\ell=P[X^p\geq \ell]$ para cada $\ell\geq 1.$

Agora, apresentamos dois resultados, fixamos $p$ e para $\ell=1,\dots,k$ temos que $$\mathbf{E}\left[\frac{V^{n_p}(\ell)}{n_p}\right]\overset{\text{Proposição}(2.1)}{=} \theta^p_\ell~~~(2.1.5)$$

Já para o segundo resultado, temos que para $\ell=1,\dots,k$ e $p=1,\dots,J$ obtemos $$\frac{V^{n^\star}(\ell)}{n_p}=\frac{\left[V^{n_1}(\ell)+V^{n_2}(\ell)+\cdots+V^{n_J}(\ell)\right]}{n_p}=$$

$$=\frac{n_1}{n_p}\frac{V^{n_1}(\ell)}{n_1}+\frac{n_2}{n_p}\frac{V^{n_2}(\ell)}{n_2}+\cdots+\frac{n_J}{n_p}\frac{V^{n_J}(\ell)}{n_J}~~~~(2.1.6)$$

Logo, usando (2.1.5) e (2.1.6) temos o seguinte resultado $$\mathbf{E}\left[\frac{V^{n^\star}(\ell)}{n_p}\right]=\frac{n_1}{n_p}\mathbf{E}\left[\frac{V^{n_1}(\ell)}{n_1}\right]+\frac{n_2}{n_p}\mathbf{E}\left[\frac{V^{n_2}(\ell)}{n_2}\right]+\cdots+\frac{n_J}{n_p}\mathbf{E}\left[\frac{V^{n_J}(\ell)}{n_J}\right]$$

$$\overset{\text{Hipótese} ~1 }{\longrightarrow} b_1\theta^1_\ell+b_2\theta^2_\ell+\dots+b_J\theta^J_\ell=\gamma^{n_p}(\ell)~~~(2.1.7)$$

Nosso interesse consiste em testar a hipótese de homogeneidade das $J$ populações discretas sujeitas a censura aleatória. Neste caso, queremos testar a hipótese $H_0:\pi^1_\ell=\dots=\pi^J_\ell~~~\forall\ell=1,\dots, k-1$. Como a função intensidade caracteriza a variável aleatória discreta, a hipótese de homogeneidade é equivalente a $H_0: h^1(\ell)=\dots=h^J(\ell) ~~~\forall\ell=1,\dots, k-1$, no qual $k$ pode ser finito ou não. No próximo capítulo, vamos descrever os testes não paramétricos usados.

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]