7.3.1 - Função Característica ou Transformada de Fourier

Você está aqui

A transformada de Fourier, também conhecida dentro da área da estatística como função característica, tem aplicações nas mais diversas áreas do conhecimento científico, como por exemplo, no processamento de sinais e imagens, na física quântica, entre outros. Além deste operador vamos necessitar de vários resultados relevantes dentro da área de probabilidade, o qual usamos na demonstração do teorema central do limite (TCL).

Na seção Momentos, estudamos a função geradora de momentos. Do ponto de vista teórico a função característica ou transformada de Fourier é bem mais robusta que a função geradora de momentos, pois:

  • é definida para qualquer distribuição;
  • determina a convergência em distribuição;
  • gera momentos.

De certa forma, a função característica é mais funcional, porém do ponto de vista prático, muitos pesquisadores preferem trabalhar com a função geradora de momentos, pois a função característica envolve números complexos. A seguir, apresentamos algumas definição e resultados para a função característica.

Definição 7.2.1.1: 

Seja X uma variável aleatória. Então a função característica (transformada de Fourier) de X é uma função $\varphi:\mathbb{R} \rightarrow \mathbb{C}$ definida por: \[\varphi(t)=\varphi_X(t)=\mathbb{E}(e^{itX})=\displaystyle\int_{\mathbb{R}} e^{(itx)}dF_X(x),\]

no qual definimos \[\mathbb{E}(e^{itX})=\mathbb{E}(\cos(t X))+i~\mathbb{E}(\sin(t X)),~~~~t\in\mathbb{R}.\]

Observação: (fórmula de Euler)

$e^{itX}=\cos(tX)+i~\sin(tX)$

Como a função característica é determinada pela sua função de distribuição, temos que se X e Y são identicamente distribuídos então: \[\varphi_X=\varphi_Y.\]

Após demonstrarmos algumas propriedades da função característica, vamos mostrar uma proposição importante, que mostra que a função característica de X determina a função de distribuição acumulada de X.

Proposição 7.2.1.1: 

A função característica é uma função limitada por 1.

Demonstração:

De fato, pela definição temos que $$|\varphi_{X}(t)|=|\mathbb{E}[e^{itX}]|=\sqrt{\mathbb{E}^2[\cos{(tX)}]+\mathbb{E}^2[\sin{(tX)}]}$$

Assim, temos que $$\sqrt{\mathbb{E}^2[\cos{(tX)}]+\mathbb{E}^2[\sin{(tX)}]}\leq \sqrt{\mathbb{E}[\cos^2{(tX)}]+\mathbb{E}[\sin^2{(tX)}]}=\sqrt{\mathbb{E}[\underbrace{\cos^2{(tX)}+\sin^2{(tX)}}_{1}]}=1$$

A desigualdade apresentada é devido a P6 da esperança. Portanto, a função característica é limitada por 1. $\Box$

Proposição 7.2.1.2: 

Se X e Y são duas variáveis aleatórias independentes então $\varphi_{X+Y}=\varphi_X(t)\varphi_Y(t).$

Demonstração:

De fato, temos que: \[\varphi_{X+Y}(t)=\mathbb{E}[e^{it(X+Y)}]=\mathbb{E}[e^{itX}~e^{itY}]=\mathbb{E}[(\cos{(tX)}+i~\sin{(tX)})(\cos{(tY)}+i~\sin{(tY)})]\]

Como X e Y são independentes temos que: $$\mathbb{E}[\cos{(tX)}+i~\sin{(tX)}]~\mathbb{E}[\cos{(tY)}+i~\sin{(tY)}]=\mathbb{E}[e^{iX}]~\mathbb{E}[e^{iY}]=\varphi_X(t)\varphi_Y(t)$$

$\Box$

Um resultado geral da proposição 7.2.1.2, é que se uma família finita de variáveis aleatórias $X_1\cdots X_n$ são independentes e $S_n=X_1,\dots,X_n$, então $$\varphi_{S_n}=\prod_{i=1}^{n}\varphi_{X_i}$$

De fato, $$\varphi_{S_n}=\mathbb{E}[e^{it(X_1+\dots+X_n)}]=\mathbb{E}[e^{itX_1}e^{it X_2}\dots e^{it X_n}]\overset{\text{indep.}}{=}\mathbb{E}[e^{it X_1}]\dots\mathbb{E}[e^{it X_n}]=\prod^n_{i=1}\varphi_{X_i}$$

Proposição 7.2.1.3: 

Se $X=aY+b,$ então $\varphi_X(t)=\varphi_{aY+b}(t)=e^{itb}\varphi_Y(at)$

Demonstração:

De fato, \[\varphi_{X}(t)=\varphi_{aY+b}(t)=\mathbb{E}[e^{it(aY+b)}]=\mathbb{E}[e^{itaY}~e^{itb}]=e^{itb}\mathbb{E}[e^{itaY}]=e^{itb}\varphi_Y(at)\]

$\Box$

Proposição 7.2.1.4:

A função característica $\varphi_X$ também gera momentos.

Demonstração:

$$\frac{d^n}{dt^n}\varphi_X(t)\mid_{t=0}=i^n\mathbb{E}[X^n],\quad \text{se}~\mathbb{E}|X|^n< \infty.$$

Note que, se $\mathbb{E}|X|^n< \infty,$ então $$\varphi_X(t)=\varphi(0)+\varphi^\prime(0)t+\varphi^{\prime\prime}(0)\frac{t^2}{2!}+\dots+\varphi^{(n)}(0)\frac{t^n}{n!}+r_n(t)=$$ $$\overset{(\text{Obs})}{=}1+i(\mathbb{E}[X])t-\frac{\mathbb{E}[X^2]}{2!}t^2+\dots+i^n\frac{\mathbb{E}[X^n]}{n!}t^n+r_n(t)$$

Obs: $\dfrac{r_n(t)}{t^n}\xrightarrow{t\rightarrow 0}0$

$\Box$

Corolário 7.2.1.1: 

Se $\mathbb{E}[|X|^n]< \infty$ para algum $n\geq 1,$  então $\varphi_X$ possui k derivadas contínuas para todo $k\leq n$ e ainda temos que: \[\displaystyle \varphi_X^{(k)}(t)=\int_{\mathbb{R}}(ix)^k e^{itx}dF_X(x).\]

E portanto; $\varphi_X^{k}(0)=i^k~\mathbb{E}[X^k]$.

Demonstração:

Para demonstrarmos esse fato vamos nos utilizar da definição de derivada. Notemos primeiramente que: \[\displaystyle\frac{\varphi(t+h)-\varphi(t)}{h}=\int_{\mathbb{R}} \frac{e^{i(t+h)x}-e^{itx}}{h}dF(x)=\int_{\mathbb{R}} e^{itx}\left(\frac{e^{ihx}-1}{h}\right)dF(x)=\mathbb{E}\left[e^{itX}\left(\frac{e^{ihX}-1}{h}\right)\right].\]

Como $\frac{(e^{ithx}-1)}{h}\rightarrow ix$ quando $h\rightarrow 0,$ obtemos que: \[\displaystyle \mathbb{E}\left[e^{itx}\left(\frac{e^{ihX}-1}{h}\right)\right]\rightarrow i~\mathbb{E}[Xe^{itX}].\]

Vamos demonstrar o caso geral por indução. Suponhamos que \[\displaystyle \varphi^{(n)}(t)=\int(ix)^n e^{itx}dF_X(x),\]

Mostremos que é válido para (n+1).

De fato, $$\frac{\varphi^{(n+1)}(t+h)-\varphi^{(n+1)}(t)}{h}=\int_{\mathbb{R}} \frac{(ix)^{n+1} e^{i(t+h)x}-(ix)^n e^{itx}}{h}dF_X(x)=\int_{\mathbb{R}} (ix)^{n+1} e^{itx}\left(\frac{e^{ihx}-1}{h}\right)=$$ $$=\mathbb{E}\left[(iX)^{n+1} e^{itX}\left(\frac{e^{ithX}-1}{h}\right)\right].$$

Mas como \[\mathbb{E}\left[e^{itX}\frac{(e^{ithX}-1)}{h}\right]\rightarrow i~\mathbb{E}[Xe^{itX}].\]

Para encontrarmos $\varphi_{X}^{(k)}(0)=i^k\mathbb{E}[X^k]$, basta tomarmos $t=0$.

Portanto, temos que \[\displaystyle\varphi^{(k)}_{X}(0)=\int_{\mathbb{R}} (ix)^{k}dF_X(x)=\mathbb{E}[(iX)^{k}]=i^k~\mathbb{E}[X^k].\]

$\Box$

A função característica de uma variável aleatória X determina a função de distribuição acumulada de X, ou seja, dado a sua função característica podemos determinar qual é a sua função de distribuição acumulada. Este fato decorre de uma formula conhecida como formula da inversão.

Teorema 7.2.1.1: (Fórmula da inversão)

Se x e y são pontos de continuidade de F tais que x $<$ y, então \[F(y)-F(x)=\displaystyle\frac{1}{2\pi}\lim_{u\rightarrow\infty}\int_{-u}^{u}\frac{e^{-itx}-e^{-ity}}{it}\varphi(t)dt.\]

Demonstração:

Para demonstrarmos esse teorema vamos necessitar do teorema da convergência dominada, o qual é enunciado abaixo.

Teorema da convergência dominada: 

Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias tal que $X_n\rightarrow X$ quase certamente e existe uma variável aleatória Y não negativa tal que $|X_n|\leq Y$ com $\mathbb{E}[Y]<\infty,$ então para $\mathbb{E}[X]<\infty,$ temos que $$\mathbb{E}[X_n]\rightarrow \mathbb{E}[X],\quad \text{quando}~~ n\rightarrow \infty.$$

Voltando a demonstração do teorema 7.2.1.1 vamos definir uma integral iterada \[I(u):=\displaystyle\int_{-u}^{u}\frac{e^{-itx}-e^{-ity}}{it}\varphi(t)dt=\int_{-u}^{u}\left\{\int_{-\infty}^{\infty}\frac{e^{-itx}-e^{-ity}}{it}e^{itz}dF(z)\right\}dt.\]

Neste momento é importante relembrarmos que \[\lim_{t\rightarrow 0}\frac{e^{-itx}-e^{ity}}{it}=y-x\]

e ainda que a integral de Dirichlet é dada por: \[\displaystyle\lim_{u\rightarrow\infty}\int_{0}^{u}\frac{\sin{(t)}}{t}dt=\frac{\pi}{2}.\]

Assim temos que: \[I(u)=\displaystyle\int_{-\infty}^{\infty}\left\{\int_{-u}^{u}\frac{e^{it(z-x)}-e^{it(z-y)}}{it}dt\right\}dF(z).\]

Portanto \[I(u)=\displaystyle\int_{-\infty}^{\infty}\left\{2\int_{0}^{u}\displaystyle \frac{\sin{t(z-x)}}{t}-2\int_{0}^{u}\frac{\sin{t(z-y)}}{t}\right\}dF(z)\]

Neste momento basta usarmos o teorema da convergência dominada, ou seja, precisamos encontrar uma variável aleatória tal que $H_u(X)\rightarrow Y$ e mostrar que para todo $H_u(X)$ existe uma variável Z tal que $H_u(X)< Z$, no qual $H_u(X)=\displaystyle 2\int_{0}^{u}\frac{\sin{t(z-x)}}{t}dt-2\int_{0}^{u}\frac{\sin{t(z-y)}}{t}dt.$

De fato, aplicando o limite em $H_u(X)$ e utilizando o resultado da integral de Dirichlet podemos encontrar o seguinte cenário. Como $x< y$ temos que:

se $z< x$ então $(z-x)$ e $(z-y)$ são menores que zero temos que: $$H_u(X)=\lim_{u\rightarrow \infty}2\int_{0}^{u}\frac{\sin{t(z-x)}}{t}dt -2\int_{0}^{u}\frac{\sin{t(z-y)}}{t}dt=$$ $$\quad\lim_{u\rightarrow \infty}-2\int_{0}^{-(z-x)u}\frac{\sin{t}}{t}+2\int_{0}^{-(z-y)u}\frac{\sin{t}}{t}=-\pi+\pi=0.$$

Analogamente temos que se $z> y$ temos que também é $H_u(X)=0$

Por outro lado se $z=x$ temos que $(z-x)=0$ e $(z-y)< 0$ então teremos que: \[H_u(X)=\displaystyle \lim_{u\rightarrow \infty}2\int_{0}^{u}\frac{\sin{t(z-x)}}{t}dt-2\int_{0}^{u}\frac{\sin{t(z-y)}}{t}dt =\lim_{u\rightarrow \infty}2\int_{0}^{t(z-y)}\frac{\sin{t}}{t}dt=\pi.\]

Podemos notar que se $z=y$ temos também que $H_u(t)=\pi$. Por último se $x< z < y$, assim temos que $z-x> 0$ e ainda $z-y< 0$. \[H_u(X)=\displaystyle \lim_{u\rightarrow \infty}2\int_{0}^{u}\frac{\sin{t(z-x)}}{t}-2\int_{0}^{u}\frac{\sin{t(z-x)}}{t} = 2\int_{0}^{u(z-x)}\frac{\sin{t}}{t}+2\int_{0}^{-u(z-y)}\frac{\sin{t}}{t}=2\pi\]

Assim temos que: $H_u(X)\rightarrow \pi~ I_{[X=x]}+2\pi ~I_{[x< X < y]}+\pi ~I_{X=y}=Y$ quando $u\rightarrow \infty.$

Neste momento basta encontrarmos uma variável que limita Y, como por exemplo: \[Z=4\pi~ I_{x\leq X\leq y}\]

Assim usando o teorema da convergência dominada podemos concluir que: \[\displaystyle\lim_{u\rightarrow \infty}\mathbb{E}[H_u(X)]=\mathbb{E}[Y]=\pi~ \mathbb{P}(X=x)+2\pi ~\mathbb{P}(x< X < y)+\pi ~\mathbb{P}(X=y).\]

Notemos que da forma como $H_u(X)$ foi definido temos que: \[\displaystyle\lim_{u\rightarrow \infty} I(u)=\displaystyle \mathbb{E}[H_u(t)]=\pi ~\mathbb{P}(X=x)+2\pi ~\mathbb{P}(x< X < y)+\pi~ \mathbb{P}(X=y).\]

Assim concluímos a demonstração do teorema.

$\Box$

Proposição 7.2.1.5: 

A variável aleatória X tem função característica real para todo t se, e somente se, X tem distribuição simétrica em torno de zero.

Demonstração:

De fato, notemos que X tem distribuição simétrica em torno de zero se, e somente se, $\mathbb{P}(X\leq x)=\mathbb{P}(X\geq -x)$ para qualquer $x \in \mathbb{R}$, ou seja, $F_{-X}=F_{X}$ no qual X e -X são identicamente distribuídas.

Mas pelo teorema temos que $F_X=F_{-X}$ se, e somente se, suas funções característica são iguais, ou seja, $\varphi_X=\varphi_{-X}$. Desta forma X é simétrica em zero se, e somente se, $\varphi_X(t)=\varphi_{-X}(t)=\overline{\varphi_{-X}(-t)}$.

A última igualdade decorre do fato de que,

$\displaystyle \overline{\varphi_X(t)}=\varphi_{X}(t)$, pois $\cos{(-tX)}=\cos{(tX)}$ e $\sin{(-tX)}=-\sin{(tX)}$ e portanto temos que: \[\varphi_X(-t)=\mathbb{E}[\cos{(-tX)}+i~\sin{(-tX)}]=\mathbb{E}[\cos{(-tX)}]+i~\mathbb{E}[\sin{(-tX)}]=\] \[=\mathbb{E}[\cos{(tX)}]-i~\mathbb{E}[\sin{(tX)}]=\mathbb{E}[\cos{(tX)}-i~\sin{(tX)}]=\] \[=\overline{\mathbb{E}[e^{itX}]}=\overline{\varphi_{X}(t)}\]

Assim podemos concluir que: \[\varphi_{X}(t)=\varphi_{-X}(t)=\overline{\varphi_{-X}(-t)}=\overline{\mathbb{E}[e^{i(-t)(-X)}]}=\overline{\mathbb{E}[e^{itX}]}=\overline{\varphi_X(t)},\]

ou seja, $\varphi_X(t)=\overline{\varphi_X(t)}$ mas um número complexo só é igual ao seu conjugado se, e somente se, ele for real, e portanto concluímos nossa demonstração.

$\Box$

A seguir, vamos demonstrar o teorema de unicidade, isto é, que a função de distribuição $F=F(x)$ é determinado unicamente pela função característica $\varphi=\varphi(t).$

Teorema 7.2.1.2: (Unicidade)

Seja $F$ e $G$ as funções de distribuição com as mesmas funções características, isto é, $$\int_{\mathbb{R}}e^{itx}dF(x)=\int_{\mathbb{R}}e^{itx}dG(x), \quad \text{para todo}~ t\in \mathbb{R}.$$

Então $F(x)\equiv G(x)$

Demosntração:

Escolhemos $a,b\in\mathbb{R},$ dado $\varepsilon>0$ e consideramos a função $f^{\varepsilon}(x).$ Vamos mostrar que $$\int_{\mathbb{R}}f^{\varepsilon}(x)dF(x)=\int_{\mathbb{R}}f^{\varepsilon}(x)dG(x)$$

Para isto, seja $n> 0$ suficientemente grande, para que $[a-\varepsilon,b+\varepsilon]\subseteq [-n,n]$ e sequência $\{\delta_n\}$ tal que $\delta_n$ é limitada por 1 e $\delta_n\downarrow 0,$ quando $n\rightarrow \infty.$ Como qualquer função contínua em $[-n,n]$ tem valores iguais nos extremos.

Logo, $f^{\varepsilon}(x)$ pode ser aproximada uniformemente por polinômios trigonométricos (teorema de Weierstrass). $$F^\varepsilon_n(x)=\sum_k a_k \exp\left\{i\pi x \frac{k}{n}\right\}$$

tal que $$\sup_{-n\leq x\leq n}|f^\varepsilon(x)-f^\varepsilon_n(x)|\leq \delta_n$$

Estendendo a função periódica $f_n(x)$ para todo $\mathbb{R}.$ Note que, $$\sup_{x}|f^\varepsilon_n(x)|\leq 2$$

Então pela hipótese temos que $$\int_{\mathbb{R}}f^\varepsilon_n(x)dF(x)=\int_{\mathbb{R}}f^\varepsilon_n(x)dG(x)$$

Daí, obtemos que $$\left|\int_{\mathbb{R}}f^\varepsilon_n(x)dF(x)-\int_{\mathbb{R}}f^\varepsilon_n(x)dG(x)\right|=\left|\int^n_{-n}f^\varepsilon(x)dF(x)-\int^n_{-n}f^\varepsilon(x)dG(x)\right|$$ $$\leq\left|\int^n_{-n}f^\varepsilon_n(x)dF(x)-\int^n_{-n}f^\varepsilon_n(x)dG(x)\right|+2\delta_n$$ $$\leq\left|\int_{\mathbb{R}}f^\varepsilon_n(x)dF(x)-\int_{\mathbb{R}}f^\varepsilon_n(x)dG(x)\right|+2\delta_n\longrightarrow 0$$

Quando $\varepsilon\rightarrow 0,$ obtemos que $f^\varepsilon\rightarrow 1\!\!1_{\{(a,b]\}}(x).$

Portanto, $$\int_{\mathbb{R}}1\!\!1_{\{(a,b]\}}(x)dF(x)=\int_{\mathbb{R}}1\!\!1_{\{(a,b]\}}(x)dG(x)$$

e do teorema fundamental do cálculo $F(b)-F(a)=G(b)-G(a)$ e desde que $a$ e $b$ sejam arbitrários temos que $F(x)=G(x)$ para todo $x\in \mathbb{R}$

$\Box$

Apresentamos a seguir a função característica de algumas das principais distribuições de probabilidade.

Exemplo 7.2.1.1: 

Suponha que $X~\sim ~B(n,p)$ \[\varphi_{X}(t)=\mathbb{E}[e^{itX}]=\sum_{k=0}^{\infty}\left(\begin{array}{c}n\\k\end{array}\right)e^{itk}p^{k}(1-p)^{n-k}=\sum_{k=0}^{\infty}\frac{n!}{k!(n-k)!}e^{itk}p^k(1-p)^{n-k}=((1-p)+pe^{it})^n.\]

Exemplo 7.2.1.2: 

Suponha que $X~\sim ~\text{Poisson}(\lambda)$.  \[\varphi_{X}(t)=\mathbb{E}[e^{itX}]=\sum_{k=0}^{\infty}e^{itk}e^{-\lambda}\frac{\lambda^k}{k!}=e^{-\lambda}\sum_{k=0}^{\infty}\frac{(\lambda e^{it})^{n}}{n!}=e^{-\lambda}e^{\lambda e^{it}}=\exp\{\lambda(e^{it}-1)\}.\]

Exemplo 7.2.1.3: 

Suponha que $X~\sim ~N(0,1)$ \[\varphi_X(t)=\mathbb{E}[e^{itX}]=\displaystyle \int_{-\infty}^{\infty}e^{itx}dF_X(x)=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e^{itx}e^{-(x^2)/2}dx=e^{-t^2/2}\displaystyle \int_{-\infty}^{\infty}e^{-(x-it)^2/2}dx=e^{-t^2/2}\]

Para concluímos a última igualdade necessitamos de um resultado de análise complexa, que é o teorema de Cauchy. Este teorema diz que uma função analítica integrada sobre um caminho fechado no plano complexo tem integral nula. Usando esse resultado e com alguma manipulação algébrica concluímos a última igualdade.

Exemplo 7.2.1.4: 

Suponha que $X~\sim ~U[a,b],$ então $$\varphi_X (t)=\mathbb{E}[e^{itX}]=\int^b_a e^{itx}\dfrac{1}{b-a}dx=\dfrac{e^{itb}-e^{ita}}{it(b-a)}$$

Abaixo segue uma tabela com algumas funções características das principais distribuições.

Distribuição Função Característica
Binomial $[(1-p)+pe^{it}]^n$
Binomial Negativa $\left[\dfrac{p}{(1-(1-p)e^{it})}\right]^r$
Poisson $\exp\{\lambda(e^{it}-1)\}$
Normal $\exp\left\{i\mu t-\dfrac{(\sigma t)^2}{2}\right\}$
Gamma $\left[1-\dfrac{it}{\theta}\right]^{-\lambda}$

Um assunto muito importante e que foi dedicado uma seção é a Lei Fraca do Grandes Números (para mais detalhes acesse LFGN), que pode ser demonstrada através do método da função característica. A seguir, vamos demonstrar o seguinte teorema.

Teorema 7.2.1.3: (Lei Fraca dos Grandes Números)

Seja $\{X_i\}_{i\geq 1}$ sequência de variáveis aleatórias independentes e identicamente distribuídos com $\mathbb{E}[X_1] < \infty,$ $S_n=X_1+\dots+X_n$ e $\mathbb{E}[X_1]=\mu.$ Então $\dfrac{S_n}{n}\xrightarrow{P}\mu$ tal que para todo $\varepsilon> 0$ $$\mathbb{P}\left(\left|\dfrac{S_n}{n}-m\right|\geq \varepsilon\right)\overset{n\rightarrow\infty}{\longrightarrow}0$$

Demonstração:

Seja $\varphi(t)=\mathbb{E}[e^{it X_1}]$ e $\varphi_{S_n/n}(t)=\mathbb{E}[e^{it\frac{S_n}{n}}].$ Da hipótese temos que as variáveis aleatórias são i.i.d's, então

$\varphi_{S_n/n}(t)=\left[\varphi\left(\frac{t}{n}\right)\right]^n$

Pela proposição 7.2.1.4, temos que $$\varphi(t)=1+it\mu+r(t), \quad \text{quando} t\rightarrow 0$$

Assim, para cada $t\in\mathbb{R}$ $$\varphi\left(\frac{t}{n}\right)=1+i\frac{t}{n}\mu+r(\frac{1}{n}),\quad\text{qaundo}~t\rightarrow \infty $$

Logo, $$\varphi_{S_n/n}(t)=\left[1+i\frac{t}{n}\mu+r(\frac{1}{n})\right]^n\rightarrow e^{it\mu}$$

A função $\varphi(t)=e^{it\mu}$ é contínua no zero e é a função característica da distribuição de probabilidade que é concentrada em $\mu.$ Portanto, $\dfrac{S_n}{n}\xrightarrow{\mathcal{D}}\mu$. Como $\mu$ é uma constante obtemos que (ver Proposição 7.1.2.2 em Convergência em distribuição) a convergência também ocorre em probabilidade, $$\dfrac{S_n}{n}\xrightarrow{P}\mu.$$

$\Box$

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]