next up previous contents
Next: 2. Testes de Hipóteses Up: CE-210 Inferência Estatística II Previous: Sumário   Sumário

Subsections


1. Estimação por Intervalos

A principal restrição da estimação pontual é que quando estimamos um parâmetro através de um único valor numérico toda a informação presente nos dados é resumida através deste número. É importante encontrar também um intervalo de valores plausíveis para o parâmetro.

A idéia é construir um intervalo em torno da estimativa pontual de modo que ele tenha uma probabilidade conhecida de conter o verdadeiro valor do parâmetro. Tipicamente as distribuições amostrais de estimadores dos parâmetros desconhecidos serão utilizadas. Antes de descrever o procedimento geral veremos um exemplo simples de construção do intervalo de confiança.

Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição $ N(\theta,\s)$, com $ \s$ conhecido. Para fazer inferências sobre $ \theta$ nos baseamos na média amostral $ \overline{\bfX}$ e sabemos que

$\displaystyle U = \frac{\sqrt{n}(\overline{\bfX}-\theta)}{\sigma}\sim N(0,1).
$

Note que a estatística $ U$ é uma função da amostra e também de $ \theta$, o parâmetro de interesse, mas sua distribuição de probabilidades não depende de $ \theta$. Usando uma tabela da distribuição normal padronizada podemos obter o valor do percentil $ z_{\alpha/2}$ tal que

$\displaystyle P(-z_{\alpha/2} \le U \le z_{\alpha/2}) = 1- \alpha
$

e assim, após isolar $ \theta$, obtemos que

$\displaystyle P\left(\overline{\bfX}-z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \le
\theta \le \overline{\bfX}+z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\right)
= 1-\alpha.
$

Esta última igualdade pode dar margem a interpretações errôneas, o que aliás acontece com bastante frequência. O parâmetro $ \theta$ é desconhecido mas fixo e portanto não é passível de descrição probabilística, ou seja não se trata de um intervalo de probabilidade para $ \theta$. Na verdade os limites do intervalo é que são variáveis aleatórias e após a amostra ser observada dizemos que

$\displaystyle \overline{\bfx}-z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \le\theta \le
\overline{\bfx}+z_{\alpha/2}\frac{\sigma}{\sqrt{n}}
$

com confiança $ 100(1-\alpha)\%$.

Vale notar também que, para um dado valor de $ 1-\alpha$, é possível construir muitos intervalos de confiança diferentes para $ \theta$. Na verdade, quaisquer constantes $ c_1$ e $ c_2$ tais que $ P(c_1\le U\le c_2)=1-\alpha$ podem ser usadas para construir um intervalo com limites

$\displaystyle \overline{\bfx}-c_2\frac{\sigma}{\sqrt{n}}$   e$\displaystyle \quad
\overline{\bfx}-c_1\frac{\sigma}{\sqrt{n}}.
$

No entanto, pode-se mostrar que dentre todos os intervalos de confiança com esta característica, aquele definido acima que é simétrico em torno do média amostral $ \overline{\bfx}$ é o de menor comprimento.


1.1 Procedimento Geral

O procedimento geral para construção de intervalos de confiança consiste nos seguintes passos,

  1. Obter uma estatística que depende de $ \theta$, $ U=G(X,\theta)$, mas cuja distribuição não depende de $ \theta$.

  2. Usando a distribuição de $ U$, encontrar as constantes $ a$ e $ b$ tais que
    $ P(a\le U\le b)\ge 1-\alpha$.

  3. Definir $ \{\theta:a\le G(x,\theta)\le b\}$ como o intervalo (ou região) de confiança 100(1-$ \alpha$)% para $ \theta$.

A exigência de que a probabilidade no item 2 acima possa ser maior do que o nível de confiança é essencialmente técnica pois queremos que o intervalo seja o menor possível, o que em geral implica em usar uma igualdade. A desigualdade será útil principalmente no caso de distribuições discretas onde nem sempre é possível satisfazer a igualdade.

Note que a variável aleatória $ U$, comumente denominada quantidade pivotal ou pivot, é fundamental para o funcionamento do método. Idealmente ela deve depender da amostra através de estatísticas suficientes minimais e ter distribuição conhecida.

É importante notar também que este intervalo não pode ser interpretado como um intervalo de probabilidade para $ \theta$ já que a aleatoriedade presente é devida a amostra $ X$. Ou seja, o procedimento leva a construção de um intervalo probabilístico para $ U$ e não para $ \theta$.

Tecnicamente, dizemos que $ 100(1-\alpha)\%$ de todos os intervalos de confiança que construirmos conterão o verdadeiro valor do parâmetro (dado que todas as suposições envolvidas estejam corretas). Por exemplo se $ 1-\alpha=0,95$ então, em média, somente 5 a cada 100 intervalos não conterão $ \theta$. A probabilidade $ 1-\alpha$ é denominada nível de confiança e sua escolha depende da precisão com que queremos estimar o parâmetro, sendo que 0,90, 0,95 e 0,99 são os valores mais comuns na prática.

1.2 Estimação no Modelo Normal

Nesta seção serão discutidos os casos em que os dados provém de uma distribuição normal. Inicialmente veremos o caso em que temos uma única amostra de uma distribuição normal e queremos estimar sua média e sua variância. Na Seção 1.2.2 estudaremos o caso de duas amostras tomadas de distribuições normais independentes.


1.2.1 O caso de uma amostra

No exemplo 1..1, se $ \s$ for desconhecido não podemos usar a mesma quantidade pivotal já que ela depende de $ \sigma$. Ou seja, precisamos obter uma outra quantidade pivotal que depende apenas de $ \bfX$ e de $ \theta$ e com uma distribuição que seja conhecida e não dependa de nenhum parâmetro desconhecido. No modelo normal isto será possível usando os resultados a seguir.

Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição $ N(\theta,\s)$ e sejam $ \overline{X}$ e $ S^2$ a média e a variância amostrais. Então, condicionado em $ \theta$ e $ \s$, $ \overline{X}$ e $ S^2$ são independentes com distribuições amostrais

$\displaystyle \frac{\sqrt{n}(\overline{\bfX}-\theta)}{\sigma}\sim N(0,1)$   e$\displaystyle \quad
\frac{(n-1)S^2}{\s}\sim \chi^2_{n-1}.
$

Se $ U\sim N(0,1)$ e $ W\sim \chi^2_{\nu}$ e se $ U$ e $ W$ são independentes então

$\displaystyle \frac{U}{\sqrt{\frac{W}{\nu}}}\sim t_{\nu}(0,1).
$

Prova. A prova é deixada como exercício.

Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição $ N(\theta,\s)$ e sejam $ \overline{X}$ e $ S^2$ a média e a variância amostrais. Então, condicionado em $ \theta$ e $ \s$, $ \overline{X}$ tem distribuição amostral

$\displaystyle \frac{\sqrt{n}(\overline{X}-\theta)}{S}\sim t_{n-1}(0,1)
$

Prova. Aplicação direta do lema acima com $ U=\sqrt{n}(\overline{X}-\theta)/\sigma$, $ W=(n-1)S^2/\s$ e $ \nu=n-1$.

Estes resultados nos permitem definir quantidades pivotais para construção de intervalos de confiança para $ \theta$ e $ \s$. No caso da média $ \theta$, o valor desconhecido de $ \sigma$ é substituido pelo seu estimador $ S$ levando a uma quantidade pivotal com distribuição $ t$ com $ n-1$ graus de liberdade. Assim, podemos obter o percentil $ t_{\alpha/2,n-1}$ tal que

$\displaystyle P\left(-t_{\alpha/2,n-1}\le\frac{\sqrt{n}(\overline{X}-\theta)}{S}\le
t_{\alpha/2,n-1}\right) = 1- \alpha
$

e, após isolar $ \theta$, obtemos que

$\displaystyle P\left(
\overline{\bfX}-t_{\alpha/2,n-1}\frac{S}{\sqrt{n}}
\le\theta\le
\overline{\bfX}+t_{\alpha/2,n-1}\frac{S}{\sqrt{n}}
\right)= 1-\alpha.
$

Note que, mesmo se $ S$ pudesse estimar $ \sigma$ sem erro, esta substituição implica em um aumento da amplitude do intervalo de confiança pois $ t_{\alpha,n}>z_{\alpha}$ para $ n$ pequeno.

Finalmente, após observar a amostra substituimos as estimativas e dizemos que

$\displaystyle \overline{\bfx}-t_{\alpha/2,n-1}\frac{s}{\sqrt{n}}
\le\theta\le
\overline{\bfx}+t_{\alpha/2,n-1}\frac{s}{\sqrt{n}}
$

com confiança $ 100(1-\alpha)\%$.

Para obter estimativas da variância populacional $ \s$ usamos uma quantidade pivotal com distribuição qui-quadrado com $ n-1$ graus de liberdade. Devemos então obter os percentis $ \underline{\chi}^2_{\alpha/2,n-1}$ e $ \overline{\chi}^2_{\alpha/2,n-1}$ desta distribuição tais que

$\displaystyle P\left(\underline{\chi}^2_{\alpha/2,n-1}\le \frac{(n-1)S^2}{\s}\le
\overline{\chi}^2_{\alpha/2,n-1} \right) = 1-\alpha
$

e após observar a amostra o intervalo de confiança de $ 100(1-\alpha)\%$ para $ \s$ é dado por

$\displaystyle \left( \frac{(n-1)s^2}{\overline{\chi}^2_{\alpha/2,n-1}},
\frac{(n-1)s^2}{\underline{\chi}^2_{\alpha/2,n-1}}\right).
$


1.2.2 O caso de duas amostras

Nesta seção vamos assumir que $ X_{11},\dots,X_{1n_1}$ e $ X_{21},\dots,X_{2n_2}$ são amostras aleatórias das distribuições $ N(\theta_1,\s_1)$ e $ N(\theta_2,\s_2)$ respectivamente e que as amostras são independentes.

Podemos comparar as médias populacionais estimando a diferença $ \beta=\theta_1-\theta_2$. A estimação é baseada na diferença entre médias amostrais, i.e. $ \overline{X}_1-\overline{X}_2$ que é o estimador de máxima verossimilhança de $ \beta$. Se as variâncias populacionais forem conhecidas então a distribuição amostral é dada por

$\displaystyle \overline{X}_1-\overline{X}_2 \sim N(\overline{x}_1-\overline{x}_2,\s)
$

onde

$\displaystyle \s = \frac{\s_1}{n_1} + \frac{\s_2}{n_2}.
$

Assim, o intervalo de confiança de $ 100(1-\alpha)\%$ para a diferença entre médias é dado por

$\displaystyle \left(\overline{x}_1-\overline{x}_2-
z_{\alpha/2}\sqrt{\frac{\s_1...
...\overline{x}_2+
z_{\alpha/2}\sqrt{\frac{\s_1}{n_1}+\frac{\s_2}{n_2}}\ \right).
$

No caso de variâncias populacionais desconhecidas porém iguais, i.e. $ \s_1=\s_2=\s$ podemos combinar os duas variâncias amostrais para formar uma estimativa combinada da variância. Atribuímos mais peso às amostras maiores e esta variância combinada é dada por

$\displaystyle S_p^2 = \frac{(n_1 - 1)S_1^2 + (n_2 - 1)S_2^2}{n_1 + n_2 - 2},
$

isto é, a média ponderada das variâncias amostrais com pesos dados por $ n_1-1$ e $ n_2-1$. Agora podemos calcular o erro padrão das diferenças nas médias como

$\displaystyle S_p\sqrt{\frac{1}{n_1}+\frac{1}{n_2}}.
$

Do exposto acima, um intervalo de confiança para a diferença entre médias $ \theta_1-\theta_2$ assumindo desvios padrão iguais pode ser construído usando-se a quantidade pivotal

$\displaystyle \frac{\hat{\beta}-\beta}{S_p\sqrt{\dfrac{1}{n_1}+\dfrac{1}{n_2}}}\sim
t_{\nu}(0,1)
$

onde $ \nu=n_1+n_2-2$ e $ \hat{\beta}=\overline{X}_1-\overline{X}_2$. Assim, o intervalo de confiança de $ 100(1-\alpha)\%$ para a diferença fica,

$\displaystyle \left(\overline{x}_1-\overline{x}_2-
t_{\alpha/2,\nu} s_p\sqrt{\f...
...overline{x}_2+
t_{\alpha/2,\nu} s_p\sqrt{\frac{1}{n_1}+\frac{1}{n_2}}\ \right)
$

Analogamente ao caso de uma amostra, o intervalo de confiança para $ \s$ é construído usando-se a quantidade pivotal

$\displaystyle \frac{\nu S_p^2}{\s}\sim \chi^2_{\nu}.
$

Então devemos obter os quantis $ \alpha/2$ inferior e superior desta distribuição qui-quadrado e o intervalo de confiança de $ 100(1-\alpha)\%$ para a variância populacional fica

$\displaystyle \left(\
\frac{\nu s_p^2}{\overline{\chi}^2_{\alpha/2,\nu}}\ ; \
\frac{\nu s_p^2}{\underline{\chi}^2_{\alpha/2,\nu}}
\right)
$

1.2.3 Variâncias desiguais

Até agora assumimos que as variâncias populacionais desconhecidas eram iguais (ou pelo menos aproximadamente iguais). A violação desta suposição leva a problemas teóricos e práticos uma vez que não é trivial encontrar uma quantidade pivotal para $ \beta$ com distribuição conhecida. Na verdade, se existem grandes diferenças de variabilidade entre as duas populações pode ser mais apropriado analisar conjuntamente as consequências das diferenças entre as médias e as variâncias. Assim, caso o pesquisador tenha interesse no parâmetro $ \beta$ deve levar em conta os problemas de ordem teóricas introduzidos por uma diferença substancial entre $ \s_1$ e $ \s_2$.

A literatura estatística apresenta vários métodos para resolver este problema mas nenhum deles é completamente satisfatório. Um procedimento possível consiste em utilizar a estatística

$\displaystyle t = \frac{\hat{\beta}-\beta}{\sqrt{\dfrac{S^2_1}{n_1}+\dfrac{S^2_2}{n_2}}}.
$

No entanto, a distribuição exata de $ t$ depende da razão $ \s_1/\s_2$, que é desconhecida. Se $ n_1$ e $ n_2$ forem grandes $ t$ tem distribuição aproximadamente normal padrão, mas quando eles são ambos pequenos uma solução simples é utilizar uma distribuição $ t$ de Student com $ k-1$ graus de liberdade onde $ k=\min(n_1,n_2)$. Outra solução aproximada (método aproximado de Aspin-Welch) consiste em utilizar a estatística acima com distribuição $ t$ de Student e número de graus de liberdade dado por

$\displaystyle \nu = \frac{(w_1+w_2)^2}{\dfrac{w_1^2}{n_1-1}+\dfrac{w_2^2}{n_2-1}}
$

onde

$\displaystyle w_1=\frac{s_1^2}{n_1}$   e$\displaystyle \quad w_2=\frac{s_2^2}{n_2}.
$


1.2.4 Comparação de variâncias

Outra situação de interesse é a comparação das duas variâncias populacionais. Neste caso, faz mais sentido utilizar a razão de variâncias ao invés da diferença já que elas medem a escala de uma distribuição e são sempre positivas. Para obter a distribuição amostral apropriada usaremos o teorema a seguir.

Sejam as variáveis aleatórias $ U$ e $ W$ independentes com distribuições qui-quadrado com $ \nu_1$ e $ \nu_2$ graus de liberdade respectivamente. Então a variável aleatória dada por

$\displaystyle X = \frac{U/\nu_1}{W/\nu_2}
$

tem distribuição $ F$ com $ \nu_1$ e $ \nu_2$ graus de liberdade.

Usaremos a notação $ X\sim F(\nu_1,\nu_2)$ e dos teoremas 1.1 e 1.2 não é difícil mostrar que

$\displaystyle \frac{S^2_1}{S^2_2}\frac{\s_2}{\s_1} \sim F(n_1-1,n_2-1).
$

Embora sua função de distribuição não possa ser obtida analiticamente os valores estão tabelados em muitos livros de estatística e também podem ser obtidos na maioria dos pacotes computacionais. Os percentis podem então ser utilizados na construção de intervalos de confiança para a razão de variâncias.

Uma propriedade bastante útil para calcular probabilidade com a distribuição $ F$ vem do fato de que se $ X\sim F(\nu_2,\nu_1)$ então $ X^{-1}\sim F(\nu_1,\nu_2)$ por simples inversão na razão de distribuições qui-quadrado independentes. Assim, denotando os quantis $ \alpha$ e $ 1-\alpha$ da distribuição $ F(\nu_1,\nu_2)$ por $ \underline{F}_{\alpha}(\nu_1,\nu_2)$ e $ \overline{F}_{\alpha}(\nu_1,\nu_2)$ respectivamente segue que

$\displaystyle \underline{F}_{\alpha}(\nu_1,\nu_2) =
\frac{1}{\overline{F}_{\alpha}(\nu_2,\nu_1)}.
$

Note que é usual que os livros forneçam tabelas com os percentis superiores da distribuição $ F$ para várias combinações de valores de $ \nu_1$ e $ \nu_2$ devido à propriedade acima. Por exemplo, se temos os valores tabelados dos quantis 0,95 podemos obter também um quantil 0,05. Basta procurar o quantil 0,95 inverterndo os graus de liberdade.


1.3 Intervalos de confiança para uma proporção

Seja $ X_1,\dots,X_n$ uma amostra aleatória de uma distribuição de Bernoulli com parâmetro $ \theta$. Assim,

$\displaystyle Y=\frac{1}{n}\sum_{i=1}^n X_i
$

é a proporção amostral de sucessos e será o nosso estimador pontual da verdadeira probabilidade de sucesso $ \theta$. Vamos considerar agora a construção de um intervalo de confiança para $ \theta$.

Pelo teorema central do limite, para $ n$ grande e $ \theta$ não muito próximo de 0 ou 1, a distribuição de $ Y$ será aproximadamente normal com média $ \theta$ e um desvio padrão dado por

$\displaystyle \sqrt{\frac{\theta(1-\theta)}{n}}.
$

já que $ E(X_i)=\theta$ e $ V(X_i)=\theta(1-\theta)$. Ou seja, a quantidade pivotal será dada por

$\displaystyle \frac{Y-\theta}{\sqrt{\dfrac{\theta(1-\theta)}{n}}} \sim N(0,1).
$

Assim, após observar a amostra o intervalo de confiança de 100(1-$ \alpha$)% para $ \theta$ fica

$\displaystyle \left(y - z_{\alpha/2}\sqrt{\frac{\theta(1-\theta)}{n}},
y + z_{\alpha/2}\sqrt{\frac{\theta(1-\theta)}{n}}\right).
$

Note que os limites do intervalo dependem do valor desconhecido de $ \theta$ e aqui duas abordagens são possíveis. Podemos usar o fato de que o valor máximo de $ \theta(1-\theta)$ é atingido para $ \theta=1/2$, logo $ \theta(1-\theta)\le 1/4$, ou equivalentemente $ \sqrt{\theta(1-\theta)/n}\le 1/\sqrt{4n}$. Neste caso, um intervalo de confiança conservativo é dado por

$\displaystyle \left(y - z_{\alpha/2}\sqrt{\frac{1}{4n}},
y + z_{\alpha/2}\sqrt{\frac{1}{4n}}\right).
$

No entanto, se o verdadeiro valor de $ \theta$ estiver afastado do seu valor máximo e estiver próximo de 0 ou de 1 então este intervalo tem amplitude desnecessariamente grande porque substituimos $ \theta(1-\theta)$ pelo seu valor máximo. Um enfoque mais otimista consiste em substituir $ \theta$ pela sua estimativa de máxima verossimilhança, i.e. a proporção amostral de sucessos $ y$ e utilizar o intervalo

$\displaystyle \left(y - z_{\alpha/2}\sqrt{\frac{y(1-y}{n}},
y + z_{\alpha/2}\sqrt{\frac{y(1-y)}{n}}\right).
$

Note que, para $ n$ e $ 1-\alpha$ fixos a amplitude do intervalo conservativo será a mesma para todas as possíveis amostras de tamanho $ n$. Por outro lado, usando-se esta última expressão o intervalo terá amplitude $ 2z_{\alpha/2}\sqrt{y(1-y)/n}$ que varia de amostra para amostra.


1.4 Intervalos de Confiança Assintóticos

Utilizando os conceitos do método da quantidade pivotal e a propriedade de normalidade assintótica dos estimadores de máxima verossimilhança podemos construir intervalos de confiança para $ \theta$. Antes porém precisamos da definição da medida de informação de Fisher.

Considere uma única observação $ X$ com função de (densidade) de probabilidade $ p(x\vert\theta)$. A medida de informação esperada de Fisher de $ \theta$ através de $ X$ é definida como

$\displaystyle I(\theta)=E \left[-\frac{\partial^2\log
p(x\vert\theta)}{\partial\theta^2}\right].
$

No caso de um vetor paramétrico $ \btheta=(\theta_1,\dots,\theta_k)$ define-se a matriz de informação esperada de Fisher de $ \btheta$ através de $ X$ como

$\displaystyle \bfI(\btheta)= E \left[-\frac{\partial^2\log
p(x\vert\btheta)}{\partial\btheta\partial\btheta'} \right].
$

Note que o conceito de informação aqui está sendo associado a uma espécie de curvatura média da função de verossimilhança no sentido de que quanto maior a curvatura mais precisa é a informação contida na verossimilhança, ou equivalentemente maior o valor de $ I(\theta)$. Em geral espera-se que a curvatura seja negativa e por isso seu valor é tomado com sinal trocado. Note também que a esperança matemática é tomada em relação à distribuição amostral $ p(x\vert\theta)$.

Podemos considerar então $ I(\theta)$ uma medida de informação global enquanto que uma medida de informação local é obtida quando não se toma o valor esperado na definição acima. A medida de informação observada de Fisher $ J(\theta)$ fica então definida como

$\displaystyle J(\theta)=-\frac{\partial^2\log p(x\vert\theta)}{\partial\theta^2}.
$

Seja $ \bfX=(X_1,\dots,X_n)$ uma coleção de variáveis aleatórias independentes com distribuições $ p_i(x\vert\theta)$, $ i=1,\dots,n$ e sejam $ I(\theta)$ e $ I_i(\theta)$ as medidas de informação de $ \theta$ obtidas através de $ \bfX$ e de $ X_i$, respectivamente. Então,

$\displaystyle I(\theta) = \sum_{i=1}^n I_i(\theta).
$

Prova. A prova é simples e será deixada como exercício.

O lema nos diz então que a informação total contida em observações independentes é igual a soma das informações individuais. Um caso particular importante é quando as observações são também identicamente distribuidas já que neste caso $ I_i(\theta)$ é constante e assim a informação total é simplesmente $ nI(\theta)$.

Outra estatística importante no estudo da função de verossimilhança e que será útil na construção de intervalos de confiança assintóticos é a função escore. A função escore de $ X$ denotada por $ U(X;\theta)$ é dada por

$\displaystyle U(X;\theta) = \frac{\partial\log p(X\vert\theta)}{\partial\theta}.
$

No caso de um vetor paramétrico $ \btheta=(\theta_1,\dots,\theta_k)$ a função escore será um vetor $ \bfU(X;\btheta)$ com componentes $ U_i(X;\btheta)=\partial\log
p(X\vert\btheta)/\partial\btheta_i$.

Além disso, pode-se mostrar que o valor esperado da função escore é zero e sua variância é dada por $ I(\theta)$.

Vimos em estimação pontual que, para grandes amostras, o estimador de máxima verossimilhança $ \hat{\theta}_n$ para um parâmetro $ \theta$ tem distribuição aproximadamente normal com média $ \theta$ sob condições de regularidade gerais. Assim, mesmo que $ \hat{\theta}_n$ seja viesado para $ n$ fixo ele será assintoticamente não viesado. A variância assintótica é dada por $ 1/n I(\theta)$. Ou seja, para $ n$ grande $ \hat{\theta}_n$ tem distribuição aproximadamente $ N(\theta,(nI(\theta))^{-1})$ e podemos construir intervalos de confiança aproximados para $ \theta$. Neste caso, $ (\hat{\theta}_n-\theta)\sqrt{nI(\theta)}$ pode ser tratado como uma quantidade pivotal aproximada e se for possível isolar $ \theta$ na desigualdade

$\displaystyle -z_{\alpha/2} < (\hat{\theta}_n-\theta)\sqrt{nI(\theta)} < z_{\alpha/2}
$

teremos um intervalo de confiança com coeficiente de confiança aproximado igual a $ 1-\alpha$.

Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição exponencial com parâmetro $ \theta$. A função de densidade conjunta é dada por

$\displaystyle p(\bfx\vert\theta) = \theta^n e^{-\theta t},\quad\theta > 0,$   onde $\displaystyle t=\sum_{i=1}^n x_i.
$

Tomando-se o logaritmo obtém-se

$\displaystyle \log p(\bfx\vert\theta) = n\log(\theta) - \theta t
$

de modo que as derivadas de primeira e segunda ordem são

$\displaystyle \frac{\partial\log p(\bf \vert\theta)}{\partial\theta} =
\frac{n}{\theta} -t$   e$\displaystyle \quad
\frac{\partial^2\log p(\bf \vert\theta)}{\partial\theta^2} = -\frac{n}{\theta^2}
$

e a informação esperada de Fisher baseada na amostra é $ nI(\theta)=n/\theta^2$. Sabemos também que o estimador de máxima verossimilhança de $ \theta$ é $ 1/\overline{\bfX}$ e portanto, para $ n$ grande, $ 1/\overline{\bfX}$ tem distribuição aproximadamente normal com média $ \theta$ e variância $ \theta^2/n$. Assim, o intervalo de confiança aproximado é obtido fazendo-se

$\displaystyle P\left(-z_{\alpha/2} < \frac{1/\overline{\bfX}-\theta}{\sqrt{\theta^2/n}}<
z_{\alpha/2}\right)\approx 1-\alpha.
$

Isolando $ \theta$ obtemos que

$\displaystyle P\left( \frac{1/\overline{\bfX}}{1+z_{\alpha/2}} < \theta <
\frac{1/\overline{\bfX}}{1-z_{\alpha/2}} \right)\approx 1 -\alpha.
$


Um fato importante é que, em geral, na distribuição assintótica normal do estimador de máxima verossimilhança a sua variância $ (nI(\theta))^{-1}$ pode ser substituida pelo seu estimador $ (nI(\hat{\theta}))^{-1}$ sem afetar muito a acurácia da aproximação. Este fato, que não será provado aqui, simplifica bastante a conversão das desigualdades para obtenção de intervalos de confiança aproximados. Assim,

$\displaystyle P\left(-z_{\alpha/2} <
(\hat{\theta}-\theta)\sqrt{nI(\hat{\theta})} < z_{\alpha/2}
\right)\approx 1-\alpha
$

é facilmente convertido para

$\displaystyle P\left(\hat{\theta}-z_{\alpha/2}\sqrt{nI(\hat{\theta})} < \theta <
\hat{\theta}+z_{\alpha/2}\sqrt{nI(\hat{\theta})} \right) \approx 1-\alpha.
$

Note que este resultado foi utilizado na Seção 1.3 para construir um intervalo de confiança aproximado para uma proporção. Naquele caso, $ \theta(1-\theta)/n$ era a variância de $ \overline{\bfX}$ que foi substituida pelo seu estimador de máxima verossimilhança.

Em algumas situações não se tem uma forma explícita para o estimador de máxima verossimilhança e neste caso a função escore será particularmente útil. Lembrando que a função escore de $ X$ tem média zero e variância igual a $ I(\theta)$ então temos pelo teorema central do limite que $ \sum_{i=1}^n U(X_i;\theta)$ converge em distribuição para uma $ N(0,nI(\theta))$. Podemos usar este resultado para fazer inferência aproximada sobre $ \theta$ e assim o intervalo de confiança aproximado de $ 100(1-\alpha)\%$ é obtido fazendo-se

$\displaystyle P\left(~\left\vert\frac{1}{\sqrt{nI(\theta)}} \sum_{i=1}^n U(X_i;\theta)
\right\vert < z_{\alpha/2}\right) \approx 1-\alpha.
$

Finalmente, vale ressaltar que todos os resultados desta seção podem ser extendidos para o caso de um vetor paramétrico $ \btheta=(\theta_1,\dots,\theta_k)$. Neste caso, a distribuição assintótica do estimador de máxima verossimilhança será normal multivariada com vetor de médias $ \btheta$ e matriz de variância-covariância igual a $ \bfI^{-1}(\btheta)$ onde $ \bfI(\btheta)$ é a matriz de informação de Fisher.

1.5 Intervalos Baseados na Função Deviance

1.6 Problemas

  1. Os pulsos em repouso de 920 pessoas sadias foram tomados, e uma média de 72,9 batidas por minuto (bpm) e um desvio padrão de 11,0 bpm foram obtidos. Construa um intervalo de confiança de 95% para a pulsação média em repouso de pessoas sadias com base nesses dados.

  2. Tendo sido medido o eixo maior de 9 grãos de quartzo de um corpo arenoso em uma lâmina de arenito, obteve-se um comprimento amostral médio de 1,5mm e um desvio padrão de 0,3mm. Deseja-se construir um intervalo de confiança para o comprimento médio dos grãos de quartzo do corpo arenoso.

  3. O tempo médio, por operário, para executar uma tarefa, tem sido de 100 minutos com desvio padrão de 15 minutos. Foi introduzida uma modificação para reduzir este tempo e após alguns meses foi selecionada uma amostra de 16 operários medindo-se o tempo de execução de cada um. Obteve-se um tempo médio amostral de 90 minutos e um desvio padrão de 16 minutos.

    1. Estime o novo tempo médio de execução por um intervalo com 95% de confiança.
    2. Inteprete o I.C. obtido no item anterior. Você diria que a modificação surtiu efeito? (Justifique).
    3. Estime a nova variância populacional por um intervalo com 98% de confiança.

  4. Os QIs de 181 meninos com idades entre 6-7 anos de Curitiba foram medidos. O QI médio foi 108,08, e o desvio padrão foi 14,38.
    1. Calcule um intervalo de confiança de 95% para o QI médio populacional dos meninos entre 6-7 anos de idade em Curitiba usando estes dados.
    2. Interprete o intervalo de confiança com palavras.
    3. Foi necessário assumir que os QIs têm distribuição normal neste caso? Por quê?

  5. Para decidir se uma moeda é balanceada (honesta) ela é lançada 40 vezes e cara aparece 13 vezes. Construa um intervalo de 95% de confiança para a verdadeira proporção de caras $ p$. O que você conclui?

  6. Numa pesquisa eleitoral, 57 dentre 150 entrevistados afirmaram que votariam no candidato X. Com uma confiança de 90%, o que você pode dizer acerca da proporção real de votos aquele candidato terá?

  7. Dentre 100 peixes capturados num certo lago, 18 não estavam apropriados para consumo devido aos níveis de poluição do ambiente. Construa um intervalo de confiança de 99% para a verdadeira proporção de peixes contaminados.

  8. Uma indústria compra componentes eletrônicos dos fornecedores $ A$ e $ B$, mas o fornecedor $ A$ garante que o tempo médio de vida (em horas) do seu produto supera o da marca $ B$ em 300 horas. Para testar esta afirmação foram selecionadas duas amostras de 5 e 4 componentes, das marcas $ A$ e $ B$ respectivamente. As médias amostrais foram 1492 e 1182 e as variâncias amostrais foram 770 e 3892.
    1. Compare as variâncias dos tempos de vida através de um intervalo de confiança de 98%.
    2. Construa um intervalo de confiança de 95% para a diferença entre os tempos médios de vida.
    3. Este intervalo dá alguma indicação sobre a afirmação do fornecedor $ A$? Explique.

  9. Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição normal com média $ \mu$ desconhecida e variância $ \s$ conhecida. Qual deve ser o tamanho da amostra tal que exista um intervalo de confiança para $ \mu$ com coeficiente de confiança 0,95 e comprimento menor do que 0,01$ \sigma$?

  10. Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição exponencial com média $ \theta$ desconhecida. Descreva um método para construir um intervalo de confiança de $ 100(1-\alpha)\%$ para $ \theta$. (Sugestão: Determine as constantes $ c_1$ e $ c_2$ tais que $ P(c_1< (1/\theta)\sum_{i=1}^n X_i < c_2)=1-\alpha$).

  11. Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição $ Beta(\theta,1)$. Obtenha o intervalo de confiança aproximado de $ 100(1-\alpha)\%$ baseando-se na distribuição assintótica da função escore.

  12. Se uma variável aleatória $ X$ tem distribuição de Poisson com média $ \theta$ obtenha a informação esperada de Fisher $ I(\theta)$ através de $ X$.

  13. Suponha que uma variável aleatória $ X$ tem distribuição normal com média zero e desvio-padrão desconhecido $ \sigma$. Obtenha a informação esperada de Fisher $ I(\sigma)$ através de $ X$. Suponha agora que a variância seja o parâmetro de interesse e obtenha a informação de Fisher de $ \s$ através de $ X$.

  14. Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição $ N(0,\s)$. Construa um intervalo de confiança aproximado para o desvio-padrão $ \sigma$ baseado no seu estimador de máxima verossimilhança.


next up previous contents
Next: 2. Testes de Hipóteses Up: CE-210 Inferência Estatística II Previous: Sumário   Sumário
Ricardo Ehlers & Paulo Justiniano