next up previous contents
Next: Referências Bibliográficas Up: CE-210 Inferência Estatística II Previous: 2. Testes de Hipóteses   Sumário

Subsections

A. Lista de Distribuições

Neste apêndice são listadas as distribuições de probabilidade utilizadas no texto para facilidade de referência. São apresentadas suas funções de (densidade) de probabilidade além da média e variância. Uma revisão exaustiva de distribuições de probabilidades pode ser encontrada em Johnson et al. (1992, 1994, 1995).

A.1 Distribuição Normal

$ X$ tem distribuição normal com parâmetros $ \mu$ e $ \s$, denotando-se $ X\sim N(\mu,\s)$, se sua função de densidade é dada por

$\displaystyle p(x\vert\mu,\s)=(2\pi\s)^{-1/2}\exp[-(x-\mu)^2/2\s],\quad -\infty<x<\infty,
$

para $ -\infty<\mu<\infty$ e $ \s>0$. Quando $ \mu=0$ e $ \s=1$ a distribuição é chamada normal padrão. A distribuição log-normal é definida como a distribuição de $ e^X$.

No caso vetorial, $ \bfX=(X_1,\dots,X_p)$ tem distribuição normal multivariada com vetor de médias $ \bfmu$ e matriz de variância-covariância $ \Sigma$, denotando-se $ \bfX\sim N(\bfmu,\Sigma)$ se sua função de densidade é dada por

$\displaystyle p(x\vert\bfmu,\Sigma)=
(2\pi)^{-p/2}\vert\Sigma\vert^{-1/2}\exp[-(\bfx-\bfmu)'\Sigma^{-1}(\bfx-\bfmu)/2]
$

para $ \bfmu\in\mathbb{R}^p$ e $ \Sigma$ positiva-definida.

A.2 Distribuição Gama

$ X$ tem distribuição Gama com parâmetros $ \alpha$ e $ \beta$, denotando-se $ X\sim Ga(\alpha,\beta)$, se sua função de densidade é dada por

$\displaystyle p(x\vert\alpha,\beta)=\frac{\beta^{\alpha}}{\Gamma(\alpha)}
x^{\alpha-1}e^{-\beta x},\quad x>0,
$

para $ \alpha,\beta>0$.

$\displaystyle E(X)=\alpha/\beta$   e$\displaystyle \quad V(X)=\alpha/\beta^2.
$

Casos particulares da distribuição Gama são a distribuição de Erlang, $ Ga(\alpha,1)$, a distribuição exponencial, $ Ga(1,\beta)$, e a distribuição qui-quadrado com $ \nu$ graus de liberdade, $ Ga(\nu/2,1/2)$.

A.3 Distribuição Gama Inversa

$ X$ tem distribuição Gama Inversa com parâmetros $ \alpha$ e $ \beta$, denotando-se
$ X\sim GI(\alpha,\beta)$, se sua função de densidade é dada por

$\displaystyle p(x\vert\alpha,\beta)=\frac{\beta^{\alpha}}{\Gamma(\alpha)}
x^{-(\alpha+1)}e^{-\beta/x},\quad x>0,
$

para $ \alpha,\beta>0$.

$\displaystyle E(X)=\frac{\beta}{\alpha-1}$   e$\displaystyle \quad
V(X)=\frac{\beta^2}{(\alpha-1)^2(\alpha-2)}.
$

Não é difícil verificar que esta é a distribuição de $ 1/X$ quando $ X\sim Ga(\alpha,\beta)$.

A.4 Distribuição Beta

$ X$ tem distribuição Beta com parâmetros $ \alpha$ e $ \beta$, denotando-se $ X\sim Be(\alpha,\beta)$, se sua função de densidade é dada por

$\displaystyle p(x\vert\alpha,\beta)=
\frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}
x^{\alpha-1}(1-x)^{\beta -1},\quad 0<x<1,
$

para $ \alpha,\beta>0$.

$\displaystyle E(X)=\frac{\alpha}{\alpha+\beta}$   e$\displaystyle \quad
V(X)=\frac{\alpha\beta}{(\alpha+\beta)^2(\alpha+\beta+1)}.
$

A.5 Distribuição de Dirichlet

O vetor aleatório $ \bfX=(X_1,\dots,X_k)$ tem distribuição de Dirichlet com parâmetros $ \alpha_1,\dots,\alpha_k$, denotada por $ D_k(\alpha_1,\dots,\alpha_k)$ se sua função de densidade conjunta é dada por

$\displaystyle p(\bfx\vert\alpha_1,\dots,\alpha_k)=
\frac{\Gamma(\alpha_0)}{\Gam...
...ma(\alpha_k)}
x_1^{\alpha_1-1}\dots x_k^{\alpha_k-1},\quad \sum_{i=1}^k x_i=1,
$

para $ \alpha_1,\dots,\alpha_k>0$ e $ \alpha_0=\sum_{i=1}^k \alpha_i$.

$\displaystyle E(X_i)=\frac{\alpha_i}{\alpha_0},\quad
V(X_i)=\frac{(\alpha_0-\alpha_i)\alpha_i}{\alpha_0^2(\alpha_0+1)},$   e$\displaystyle \quad
Cov(X_i,X_j)=-\frac{\alpha_i\alpha_j}{\alpha_0^2(\alpha_0+1)}
$

Note que a distribuição Beta é obtida como caso particular para $ k=2$.

A.6 Distribuição $ t$ de Student

$ X$ tem distribuição $ t$ de Student (ou simplesmente $ t$) com média $ \mu$, parâmetro de escala $ \sigma$ e $ \nu$ graus de liberdade, denotando-se $ X\sim t_{\nu}(\mu,\s)$, se sua função de densidade é dada por

$\displaystyle p(x\vert\nu,\mu,\s)=
\frac{\Gamma((\nu+1)/2)\nu^{\nu/2}}{\Gamma(\...
...igma}
\left[\nu+\frac{(x-\mu)^2}{\s}\right]^{-(\nu+1)/2},\quad x\in\mathbb{R},
$

para $ \nu>0$, $ \mu\in\mathbb{R}$ e $ \s>0$.

$\displaystyle E(X)=\mu,$   para $\displaystyle \nu>1$   e$\displaystyle \quad
V(X)=\frac{\nu}{\nu-2},$   para $\displaystyle \nu>2.
$

Um caso particular da distribuição $ t$ é a distribuição de Cauchy, denotada por $ C(\mu,\s)$, que corresponde a $ \nu=1$.

A.7 Distribuição $ F$ de Fisher

$ X$ tem distribuição $ F$ com $ \nu_1$ e $ \nu_2$ graus de liberdade, denotando-se $ X\sim F(\nu_1,\nu_2)$, se sua função de densidade é dada por

$\displaystyle p(x\vert\nu_1,\nu_2)=
\frac{\Gamma((\nu_1+\nu_2)/2)}{\Gamma(\nu_1...
...}
\nu_1^{\nu_1/2}\nu_2^{\nu_2/2}x^{\nu_1/2-1}(\nu_2+\nu_1x)^{-(\nu_1+\nu_2)/2}
$

$ x>0$, e para $ \nu_1,\nu_2>0$.

$\displaystyle E(X)=\frac{\nu_2}{\nu_2-2},$   para $\displaystyle \nu_2>2$   e$\displaystyle \quad
V(X)=\frac{2\nu_2^2(\nu_1+\nu_2-2)}{\nu_1(\nu_2-4)(\nu_2-2)^2},$   para $\displaystyle \nu_2>4.
$

A.8 Distribuição Binomial

$ X$ tem distribuição binomial com parâmetros $ n$ e $ p$, denotando-se $ X\sim bin(n,p)$, se sua função de probabilidade é dada por

$\displaystyle p(x\vert n,p)={{n}\choose{x}}p^x(1-p)^{n-x},\quad x=0,\dots,n
$

para $ n\ge 1$ e $ 0<p<1$.

$\displaystyle E(X)=np$   e$\displaystyle \quad
V(X)=np(1-p)
$

e um caso particular é a distribuição de Bernoulli com $ n=1$.

A.9 Distribuição Multinomial

O vetor aleatório $ \bfX=(X_1,\dots,X_k)$ tem distribuição multinomial com parâmetros $ n$ e probabilidades $ \theta_1,\dots,\theta_k$, denotada por $ M_k(n,\theta_1,\dots,\theta_k)$ se sua função de probabilidade conjunta é dada por

$\displaystyle p(\bfx\vert\theta_1,\dots,\theta_k)=
\frac{n!}{x_1!,\dots,x_k!}\theta_1^{x_1},\dots,\theta_k^{x_k},\quad
x_i=0,\dots,n,\quad \sum_{i=1}^k x_i=n,
$

para $ 0<\theta_i<1$ e $ \sum_{i=1}^k \theta_i=1$. Note que a distribuição binomial é um caso especial da multinomial quando $ k=2$. Além disso, a distribuição marginal de cada $ X_i$ é binomial com parâmetros $ n$ e $ \theta_i$ e

$\displaystyle E(X_i)=n\theta_i,\quad
V(X_i)=n\theta_i(1-\theta_),$   e$\displaystyle \quad
Cov(X_i,X_j)=-n\theta_i\theta_j.
$

A.10 Distribuição de Poisson

$ X$ tem distribuição de Poisson com parâmetro $ \theta$, denotando-se $ X\sim Poisson(\theta)$, se sua função de probabilidade é dada por

$\displaystyle p(x\vert\theta)=\frac{\theta^x e^{-\theta}}{x!},\quad x=0,1,\dots
$

para $ \theta>0$.

$\displaystyle E(X)=V(X)=\theta.
$

A.11 Distribuição Binomial Negativa

$ X$ tem distribuição de binomial negativa com parâmetros $ r$ e $ p$, denotando-se $ X\sim BN(r,p)$, se sua função de probabilidade é dada por

$\displaystyle p(x\vert r,p)={{r+x-1}\choose{x}}p^r(1-p)^x,\quad x=0,1,\dots
$

para $ r\ge 1$ e $ 0<p<1$.

$\displaystyle E(X)=r(1-p)/p$   e$\displaystyle \quad
V(X)=r(1-p)/p^2.
$


next up previous contents
Next: Referências Bibliográficas Up: CE-210 Inferência Estatística II Previous: 2. Testes de Hipóteses   Sumário
Ricardo Ehlers & Paulo Justiniano