next up previous contents
Next: A. Lista de Distribuições Up: CE-210 Inferência Estatística II Previous: 1. Estimação por Intervalos   Sumário

Subsections


2. Testes de Hipóteses

2.1 Introdução e notação

Em geral, intervalos de confiança são a forma mais informativa de apresentar os achados principais de um estudo. Contudo, algumas vezes existe um particular interesse em verificar determinadas afirmações ou conjecturas. Por exemplo, podemos estar interessados em determinar se uma moeda é honesta, se certas quantidades são independentes, ou se populações distintas são similares do ponto de vista probabilístico. Cada uma destas afirmações constitui uma hipótese que pode ser associada a um modelo, i.e. pode ser parametrizada.

O material deste capítulo é fortemente baseado em deg89, Gamerman e Migon (1993) e Migon e Gamerman (1999). A teoria clássica de testes de hipóteses é apresentada a um nível mais formal em lehman86.

Chamamos de hipótese estatística qualquer afirmação que se faça sobre um parâmetro populacional desconhecido. A idéia básica é que a partir de uma amostra da população iremos estabelecer uma regra de decisão segundo a qual rejeitaremos ou aceitaremos a hipótese proposta. Esta regra de decisão é chamada de teste. Normalmente existe uma hipótese que é mais importante para o pesquisador que será denotada por $ H_0$ e chamada hipótese nula. Qualquer outra hipótese diferente de $ H_0$ será chamada de hipótese alternativa e denotada por $ H_1$. Veremos mais adiante que intervalos de confiança e testes de hipóteses estão intimamente relacionados.

Um professor aplica um teste do tipo certo-errado com 10 questões. Queremos testar a hipótese de que o aluno está advinhando.

Denotando por $ p$ a probabilidade do aluno acertar cada questão a hipótese estatística de interesse pode ser formulada como $ H_0 : p = 1/2.
$ Neste caso, a hipótese alternativa mais adequada é $ H_1: p>1/2$ indicando que o aluno tem algum conhecimento sobre o assunto. Temos então 10 repetições do experimento com $ p$ constante, portanto $ X$=''número de acertos'' tem distribuição binomial com parâmetros $ n=10$ e $ p$ desconhecido. Suponha que adotamos a seguinte regra de decisão: o aluno não está advinhando se acertar 8 ou mais questões. Isto equivale a rejeitar $ H_0$ se $ X\ge 8$ (região de rejeição ou região crítica) e aceitar $ H_0$ se $ X<8$ ( região de aceitação).

No entanto, é possível que um aluno acerte 8 ou mais questões e esteja advinhando, isto é podemos rejeitar $ H_0$ quando ela é verdadeira. A probabilidade de que isto ocorra é

$\displaystyle P(X\ge 8~\vert~ p=1/2) = {{10}\choose{8}} 0,5^{10} + {{10}\choose{9}}
0,5^{10} + {{10}\choose{10}} 0,5^{10} = \frac{7}{128} \approx 0,054.
$

Esta probabilidade é chamada nível de significância e será denotada por $ \alpha$.

Um fornecedor garante que 90% de sua produção não apresenta defeito. Para testar esta afirmação selecionamos ao acaso 10 itens de um lote e contamos o número de defeituosos. Decidimos não comprar o lote se o número observado de não defeituosos for muito pequeno (mas quão pequeno?).

Definindo $ X$=''número de não defeituosos na amostra de 10 itens'' temos então uma distribuição binomial com parâmetros $ n=10$ e $ p$ desconhecido, e queremos testar $ H_0: p=0,90$. Aqui $ p$ é a proporção de itens não defeituosos no lote e portanto a hipótese alternativa deve ser $ H_1: p<0,90$. Suponha que decidimos manter $ \alpha < 0,025$ e a partir deste valor vamos estabelecer a nossa regra de decisão. Para isto vamos calcular $ \alpha$ para diferentes regiões críticas, assim

$\displaystyle P(X\le 5~\vert~p=0,90)$ $\displaystyle =$ $\displaystyle 0,001$  
$\displaystyle P(X\le 6~\vert~p=0,90)$ $\displaystyle =$ $\displaystyle 0,012$  
$\displaystyle P(X\le 7~\vert~p=0,90)$ $\displaystyle =$ $\displaystyle 0,069.$  

Portanto, para que o nível de significância máximo seja 0,025 devemos usar a região crítica $ X\le 6$. Isto é, vamos rejeitar o lote se o número de itens defeituosos na amostra for maior do que 6.

Nestes dois exemplos os testes são chamados de unilaterais porque somente valores de um lado do espaço amostral foram utilizados para construir a região crítica. Podemos ter também testes bilaterais aonde os dois extremos do espaço amostral são usados como região crítica.

No caso geral então temos uma amostra aleatória $ \bfX=(X_1,\dots,X_n)$ tomada de uma distribuição que envolve um parâmetro $ \theta$ desconhecido, definido em um espaço paramétrico $ \Theta$. Assim, as hipóteses podem ser definidas como
$ H_0:\theta\in\Theta_0$ e $ H_1:\theta\in\Theta_1$ onde $ \Theta_0$ e $ \Theta_1$ são subconjuntos disjuntos de $ \Theta$. Um teste é especificado particiondo-se o espaço amostral em dois subconjuntos. Um sobconjunto contem os valores de $ \bfX$ para os quais $ H_0$ será rejeitada e é chamado região crítica do teste, e o outro contem os valores de $ \bfX$ para os quais $ H_0$ será aceita e é chamado região de aceitação do teste. Em resumo, um teste fica determinado quando especificamos sua região crítica.

Além disso, uma hipótese pode ser classificada da seguinte maneira. Se o subconjunto $ \Theta_i$, $ i=0$ ou $ i=1$ contém um único valor então $ H_i$ é uma hipótese simples. Caso contrário, se $ \Theta_i$ contém mais de um valor então $ H_i$ é uma hipótese composta. Nos exemplos 2..1 e 2..2 $ H_0$ é uma hipótese simples enquanto $ H_1$ é composta.

2.1.1 Tipos de Decisão

Ao tomar uma decisão a favor ou contra uma hipótese existem dois tipos de erros que podemos cometer. Podemos rejeitar a hipótese nula quando de fato ela é verdadeira (erro tipo I) ou podemos falhar em rejeitar $ H_0$ quando de fato ela é falsa (erro tipo II). Frequentemente denotamos as probabilidades destes dois tipos de erro como $ \alpha$ e $ \beta$ respectivamente.

Existe um balanço entre esses dois tipos de erros, no sentido de que ao tentar-se minimizar $ \alpha$, aumenta-se $ \beta$. Isto é, não é possível minimizar estas duas probabilidades simultaneamente e na prática é costume fixar um valor (pequeno) para $ \alpha$. Na Tabela 2.1 estão descritos as decisões que podemos tomar e os tipos de erro associados.


Tabela: Tipos de decisão e tipos de erro associados a testes de hipóteses.
  Decisão
Verdade Aceitar $ H_0$ Rejeitar $ H_0$
$ H_0$ verdadeira Decisão correta Erro Tipo I
  (probabilidade $ 1-\alpha$) (probabilidade $ \alpha$)
$ H_0$ falsa Erro Tipo II Decisão correta
  (probabilidade $ \beta$) (probabilidade $ 1-\beta$)

2.1.2 A Função Poder

As características probabilísticas de um teste podem ser descritas através de uma função que associa a cada valor de $ \theta$ a probabilidade $ \pi(\theta)$ de rejeitar $ H_0$. A função $ \pi(\theta)$ é chamada função de poder (ou potência) do teste. Assim, denotando por $ C$ a região crítica a função de poder é definida como

$\displaystyle \pi(\theta)=P(\bfX\in C~\vert~\theta), \quad \forall ~\theta\in\Theta.
$

A função de poder é a ferramenta utilizada para verificar a adequação de um teste ou para comparar dois ou mais testes. É claro que uma função de poder ideal seria tal que $ \pi(\theta)=0$ para $ \theta$ satisfazendo $ H_0$ e $ \pi(\theta)=1$ para $ \theta$ satisfazendo $ H_1$. Em um problema prático no entanto raramente existirá um teste com estas características. Na Figura 2.1 abaixo está representada a função poder para o exemplo 2..2, i.e. $ P(X\le 6~\vert~p)$, para $ 0<p<1$ onde $ X\sim binomial(10,p)$. Note que neste exemplo se $ p$ for maior do que digamos 0,8 então o teste quase certamente aceitará $ H_0$, indicando que o teste é adequado. Por outro lado, para valores de $ p$ entre 0,7 e 0,8 o teste ainda rejeita $ H_0$ com probabilidade baixa.

Figura: Gráfico da função de poder para o exemplo 2..2.
\begin{figure}\begin{center}\centerline\leavevmode
\epsfig{file=figuras/poder.ps,width=5.5in,height=4.0in}\end{center}\end{figure}

O tamanho ou nível de significância $ \alpha$ de um teste é definido como

$\displaystyle \alpha\ge \sup_{\theta\in\Theta_0} \pi(\theta).
$

Assim como no caso de níveis de confiança na Seção 1.1, a desigualdade acima é essencialmente técnica já que estaremos interessados em valores de $ \alpha$ tão pequenos quanto possível. Na prática isto implicará em usar uma igualdade e o tamanho do teste então será a probabilidade máxima, para $ \theta\in\Theta_0$, de tomar uma decisão errada. A desigualdade será útil principalmente no caso de espaços amostrais discretos.

Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição $ N(\theta,\s)$ com $ \s=25$ e suponha que queremos testar $ H_0:\theta\le 17$. Suponha que a regra de decisão consiste em rejeitar $ H_0$ se somente se $ \overline{X}>17+\sigma/\sqrt{n}$. Neste caso a função poder é dada por

$\displaystyle \pi(\theta)=P($rejeitar $\displaystyle H_0) =
P(\overline{X}>17+\sigma/\sqrt{n}) =
P\left(Z>\frac{17+\sigma/\sqrt{n}-\theta}{\sigma/\sqrt{n}}\right)
$

onde $ Z\sim N(0,1)$. Para $ n=25$, calculando esta probabilidade para vários valores de $ \theta$ podemos construir o gráfico da Figura 2.2 para a função poder do teste. Note que o valor máximo da função quando $ H_0$ é verdadeira ( $ \theta\le 17$) é obtido para $ \theta=17$ e portanto o tamanho do teste é dado por

$\displaystyle \sup_{\theta\le 17}
\left[P\left(Z>\frac{17+\sigma/\sqrt{n}-\theta}{\sigma/\sqrt{n}}\right)
\right]=P(Z>1)\approx 0,159
$

Figura: Gráfico da função de poder para o exemplo 2..3.
\begin{figure}\begin{center}\centerline\leavevmode
\epsfig{file=figuras/poder1.ps,width=5.5in,height=4.0in}\end{center}\end{figure}

Exercícios

  1. Suponha que $ X_1,\dots,X_n$ é uma amostra aleatória da distribuição $ U(0,\theta)$ e queremos testar as hipóteses $ H_0:\theta\ge 2\times H_1:\theta< 2$. Seja $ Y_n=\max(X_1,\dots,X_n)$ e um teste que rejeita $ H_0$ se $ Y_n\le 5$.
    1. Determine a função poder do teste.
    2. Determine o tamanho do teste.

  2. Suponha que a proporção $ p$ de itens defeituosos em uma população de itens é desconhecida e queremos testar as hipóteses $ H_0:p=0,2\times H_1:p\ne0,2$. Uma amostra aleatória de 20 itens é tomada desta população e a regra de decisão consiste em rejeitar $ H_0$ se o número amostral de defeituosos for menor ou igual a 1 ou maior ou igual a 7.
    1. Faça um esboço do gráfico da função poder para $ p=0;0,1;0,2,\dots,1$
    2. Determine o tamanho do teste.


2.2 Testando Hipóteses Simples

É mais útil começar o estuda da teoria de testes de hipóteses considerando apenas hipóteses simples. Isto equivale a dizer que uma amostra aleatória $ X_1,\dots,X_n$ foi tomada de um dentre duas possíveis distribuições e queremos decidir de qual delas vem a amostra. Neste caso o espaço paramétrico $ \Theta$ contém apenas dois pontos, digamos $ \theta_0$ e $ \theta_1$ e queremos testar

$\displaystyle H_0:\theta=\theta_0\quad\times\quad H_1:\theta=\theta_1.
$

As probabilidades dos dois tipo de erro são dadas por

$\displaystyle \alpha = P($rejeitar $\displaystyle H_0~\vert~\theta=\theta_0)$

$\displaystyle \beta = P($aceitar $\displaystyle H_0~\vert~\theta=\theta_1)
$

e gostariamos de poder construir um teste para o qual estas probabilidades fossem as menores possíveis. Na prática é impossível encontrar um teste que minimize $ \alpha$ e $ \beta$ simultaneamente mas pode-se construir testes que minimizam combinações lineares destas probabilidades. Assim, para constantes positivas $ a$ e $ b$ queremos encontrar um teste $ \delta$ para o qual $ a\alpha(\delta)+b\beta(\delta)$ seja mínima.

[Teste Ótimo] Seja $ X_1,\dots,X_n$ uma amostra aleatória de uma distribuição com função de (densidade) de probabilidade $ p(x\vert\theta)$ e defina $ p_i=p(x\vert\theta_i)$. Se um teste $ \delta^*$ rejeita $ H_0$ quando $ p_0/p_1 < k$, aceita $ H_0$ quando $ p_0/ p_1>k$ e nada decide se $ p_0/p_1=k$, então qualquer outro teste $ \delta$ é tal que

$\displaystyle a\alpha(\delta^*)+b\beta(\delta^*) \le a\alpha(\delta)+b\beta(\delta)
$

A razão $ p_0/p_1$ é chamada razão de verossimilhanças (RV). O teorema estabelece então que um teste ótimo, no sentido de minimizar $ a\alpha(\delta)+b\beta(\delta)$, rejeita $ H_0$ quando a razão de verossimilhanças é pequena e aceita $ H_0$ quando esta razão é grande.

Outro resultado vem do fato de que a hipótese $ H_0$ e o erro tipo I são em geral privilegiados em problemas práticos. Assim, é usual considerar testes tais que $ \alpha(\delta)$ não seja maior do que um nível especificado, digamos $ \alpha_0$, e tentar minimizar $ \beta(\alpha)$.

[Neyman-Pearson] Seja $ X_1,\dots,X_n$ uma amostra aleatória de uma distribuição com função de (densidade) de probabilidade $ p(x\vert\theta)$ e defina $ p_i=p(x\vert\theta_i)$. Se um teste $ \delta^*$ rejeita $ H_0$ quando $ p_0/p_1 < k$, aceita $ H_0$ quando $ p_0/ p_1>k$ e nada decide se $ p_0/p_1=k$, então para qualquer outro teste $ \delta$ tal que $ \alpha(\delta)\le \alpha(\delta^*)$, $ \beta(\delta)\ge\beta(\delta^*)$. E também, $ \alpha(\delta)<\alpha(\delta^*)$ implica em $ \beta(\delta) > \beta(\delta^*)$.

Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição $ N(\theta,1)$ e queremos testar $ H_0:\theta=0~\times ~H_1:\theta=1$. Neste caso a razão de verossimilhanças é dada por

$\displaystyle \frac{p_0}{p_1}$ $\displaystyle =$ $\displaystyle \frac
{(2\pi)^{-n/2}\exp(-(1/2)\sum_{i=1}^n x_i^2)\ \ \ \ \ \ \ \ }
{(2\pi)^{-n/2}\exp(-(1/2)\sum_{i=1}^n (x_i-1)^2)}$  
  $\displaystyle =$ $\displaystyle \exp\left\{-\frac{1}{2}\left[\sum_{i=1}^n x_i^2 - \sum_{i=1}^n
(x_i-1)^2\right]\right\}$  
  $\displaystyle =$ $\displaystyle \exp\left[-n\left(\overline{x}-\frac{1}{2}\right)\right].$  

Portanto rejeitar $ H_0$ quando $ p_0/p_1 < k$ é equivalente a rejeitar $ H_0$ quando $ \overline{x}>(1/2)-(1/n)\log k = c$. Não é difícil obter o valor da constante $ c$ tal que

$\displaystyle P(\overline{X}>c~\vert~\theta=0) = P(Z>c\sqrt{n}) =
\alpha$   onde$\displaystyle \quad Z\sim N(0,1)
$

Por exemplo para $ \alpha=0,05$ obtemos da tabela da normal padronizada que $ c\sqrt{n}=1,645$ e o teste ótimo (que minimiza $ \beta$) consiste em rejeitar $ H_0$ se $ \overline{X}>1,645/\sqrt{n}$.

Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição exponencial com parâmetro $ \theta$ e queremos testar $ H_0:\theta=\theta_0~\times ~H_1:\theta=\theta_1$. A razão de verossimilhanças é dada por

$\displaystyle \frac{p_0}{p_1}=
\left(\frac{\theta_0}{\theta_1}\right)^n\exp\left[-(\theta_0-\theta_1)\sum_{i=1}^n
x_i\right]
$

então, pelo lema de Neyman-Pearson, o teste mais poderoso (teste ótimo) rejeita $ H_0$ se $ p_0/p_1 < k$ ou equivalentemente se

$\displaystyle \sum_{i=1}^n x_i >
\frac{1}{\theta_0-\theta_1}
\log\left[k\left(\frac{\theta_1}{\theta_0}\right)^n\right]=c
$

A constante $ c$ é obtida fixando-se o valor de $ \alpha$, i.e. $ \alpha=P(\sum_{i=1}^n X_i >c~\vert~\theta=\theta_0)$ e onde $ \sum_{i=1}^n
X_i\sim Gama(n,\theta_0)$.

2.2.1 Probabilidade de significância ($ P$-valor)

Vimos que a escolha do nível de significância do teste é completamente arbitrária. Além disso, quando a distribuição da estatística de teste é discreta, como no exemplo da binomial, o nível escolhido pode nem mesmo ser atingido. Por outro lado, a decisão de aceitar ou rejeitar $ H_0$ claramente depende desta escolha. Na maioria das aplicações práticas o valor escolhido é 0,05 ou 0,01 mas não há nada que justifique formalmente o uso destes valores em particular.

Um enfoque alternativo consiste em calcular o menor nível de significância para o qual $ H_0$ é rejeitada, para o valor observado da estatística de teste. Esta quantidade é chamada nível critico, probabilidade de significância ou p-valor. A idéia é que, após calcular o $ p$-valor o pesquisador pode escolher o seu próprio nível de significância como sendo a probabilidade máxima tolerável para um erro tipo I. Em geral, se $ T$ é uma estatística de teste e $ H_0$ é rejeitada por exemplo para $ T>c$ então o $ p$-valor é a probabilidade $ P(T>t~\vert~H_0)$ onde $ t$ é o valor observado de $ T$.

No exemplo 2..1 suponha que o número observado de questões certas foi $ X=9$. Então o $ p$-valor será

$\displaystyle P(X \ge 9~\vert~ p=1/2) = {{10}\choose 9} 0,5^{10} + {{10}\choose{10}} 0,5^{10} = 0,0107
$

e rejeitaremos $ H_0$ para todo nível de significância maior do que este valor. Por exemplo, rejeitaremos $ H_0$ para $ \alpha=0,025$ ou $ \alpha=0,05$.

No exemplo 2..2 suponha que o número observado de não defeituosos foi $ X=4$. Neste caso o $ p$-valor é dado por

$\displaystyle P(X\le 4~\vert~ p=0,90) = 0,000146
$

ou seja, rejeitaremos $ H_0$ para praticamente todos os níveis de significância usuais.

Portanto, o $ p$-valor é a probabilidade de observar resultados tão extremos quanto os obtidos se a hipótese nula for verdadeira. A idéia é que se o $ p$-valor for grande ele fornece evidência de que $ H_0$ é verdadeira, enquanto que um
$ p$-valor pequeno indica que existe evidência nos dados contra $ H_0$. As seguintes interpretações de $ p$-valores ($ P$) podem ser úteis,

\fbox{\begin{tabular}{ll}
$P~\ge~0,10 $\ ~ & ~ Não existe evidência contra $H_0$...
...
$P~<~ 0,001$\ ~ & ~ Evidência extremamente significativa $\ldots$\end{tabular}}


2.3 Testes Uniformemente mais Poderosos

Na Seção 2.2 foram definidos testes ótimos para testar hipóteses simples. Nesta seção os resultados serão generalizados para hipóteses compostas. Considere então um teste em que $ H_0$ pode ser uma hipótese simples ou composta e $ H_1$ é sempre uma hipótese composta.

Um teste $ \delta$ de $ H_0:\theta\in\Theta_0\times
H_1:\theta\in\Theta_1$ é dito ser uniformemente mais poderoso (UMP) de tamanho $ \alpha$ se e somente se

$\displaystyle \sup_{\theta\in\Theta_0}\pi(\theta) = \alpha
$

e para qualquer outro teste $ \delta^*$ que satisfaça esta igualdade

$\displaystyle \pi(\theta\vert\delta)\ge\pi(\theta\vert\delta^*),\quad\forall~\theta\in\Theta_1.
$

Assim, de acordo com esta definição, precisamos especificar um teste cuja probabilidade máxima de rejeitar $ H_0$ quando ela é verdadeira seja $ \alpha$ e que ao mesmo tempo maximize a probabilidade de rejeitar $ H_0$ quando ela é falsa. Veremos a seguir que os testes UMP só existem em situações especiais, por exemplo quando a distribuição pertence à família exponencial.

A família exponencial inclui muitas das distribuições de probabilidade mais comumente utilizadas em Estatística, tanto contínuas quanto discretas. Uma característica essencial desta família é que existe uma estatística suficiente com dimensão fixa.

A família de distribuições com função de (densidade) de probabilidade $ p(x\vert\theta)$ pertence à família exponencial a um parâmetro se podemos escrever

$\displaystyle p(\bfx\vert\theta)= a(\bfx)\exp\{T(\bfx)\phi(\theta) + b(\theta)\}.
$

Note que pelo critério de fatoração de Neyman $ T(\bfx)$ é uma estatística suficiente para $ \theta$.

Se $ X_1,\dots,X_n$ é uma amostra aleatória de um membro da família exponencial e $ \phi$ for estritamente crescente em $ \theta$ então o teste UMP de nível $ \alpha$ para testar $ H_0:\theta\le\theta_0\times H_1:\theta>\theta_0$ rejeita $ H_0$ se $ T(\bfx)>c$. Se as hipóteses forem invertidas ou $ \phi$ for estritamente decrescente em $ \theta$ então o teste UMP rejeita $ H_0$ se $ T(\bfx)<c$. Se ambas as condições ocorrerem o teste fica inalterado.

Um fato importante é que, em qualquer condição estes testes têm função poder crescente em $ \theta$. Assim a constante $ c$ acima é obtida de modo que
$ P($rejeitar $ H_0~\vert~\theta=\theta_0)\le\alpha$, com igualdade no caso contínuo.

Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição de Bernoulli com parâmetro $ \theta$ e queremos testar $ H_0:\theta\le\theta_0\times H_1:\theta>\theta_0$. Então, definindo $ t(\bfx)=\sum_{i=1}^n x_i$

$\displaystyle p(\bfx\vert\theta)$ $\displaystyle =$ $\displaystyle \theta^{t(\bfx)}(1-\theta)^{n-t(\bfx)}=
\exp[t(\bfx)\log\theta+(n-t(\bfx))\log(1-\theta)]$  
  $\displaystyle =$ $\displaystyle \exp\left\{t(\bfx)\log\left(\frac{\theta}{1-\theta}\right)+n\log(1-\theta)\right\}.$  

Logo, a distribuição pertence à família exponencial e $ \phi(\theta)=\log(\theta/(1-\theta))$ é uma função estritamente crescente de $ \theta$. Assim, um teste UMP deve rejeitar $ H_0$ se $ \sum_{i=1}^n X_i>c$ onde $ c$ é tal que $ P(\sum_{i=1}^n X_i>c~\vert~\theta=\theta_0)\le\alpha$.

Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição exponencial com parâmetro $ \theta$ e queremos testar $ H_0:\theta\le\theta_0\times H_1:\theta>\theta_0$. Definindo $ t(\bfx)=\sum_{i=1}^n x_i$ a densidade conjunta é

$\displaystyle p(\bfx\vert\theta)=\theta^n e^{-\theta\, t(\bfx)}=
\exp(n\log\theta-\theta\, t(\bfx)).
$

Portanto a distribuição pertence à família exponencial e $ \phi(\theta)=-\theta$ é uma função estritamente decrescente de $ \theta$. Então pelo teorema 2.2 o teste UMP deve rejeitar $ H_0$ se $ \sum_{i=1}^n X_i<c$. Fixando o valor de $ \alpha$ a constante $ c$ é a solução da equação $ P(\sum_{i=1}^n X_i<c~\vert~\theta=\theta_0)=\alpha$ onde $ \sum_{i=1}^n
X_i\sim Gama(n,\theta_0)$.

A propriedade que garante a existência de testes UMP na família exponencial pode ser extendida a famílias de distribuições com razão de verossimilhança monótona.

A família de distribuições com função de (densidade) de probabilidade $ p(\bfx\vert\theta)$ é dita ter razão de verossimilhança monótona se existe uma estatística $ T(\bfX)$ tal que $ \forall\,\theta_1,\theta_2\in\Theta$, com $ \theta_1<\theta_2$, a razão $ p(\bfx\vert\theta_2)/p(\bfx\vert\theta_1)$ é uma função monótona em $ t(\bfx)$.

Intuitivamente, quanto maior for a razão de verossimilhança mais plausível é o valor $ \theta_2$ em relação a $ \theta_1$. Assim, se queremos testar $ H_0:\theta\le\theta_0\times H_1:\theta>\theta_0$ e se a RV for uma função crescente de $ T(\bfX)$ então é razoável rejeitar $ H_0$ para valores grandes de $ T(\bfX)$. Pode-se mostrar que neste caso o teste UMP rejeita $ H_0$ se $ T(\bfX)>c$. Analogamente, se as hipóteses forem invertidas ou se a RV for uma função decrescente de $ T(\bfX)$ então o teste UMP rejeita $ H_0$ se $ T(\bfX)<c$. Se ambas as condições ocorrerem o teste fica inalterado.

Em qualquer destas condições o fato importante é que a função poder é sempre crescente em $ \theta$. Portanto, a constante $ c$ acima é obtida de modo que
$ P($rejeitar $ H_0~\vert~\theta=\theta_0)\le\alpha$, com igualdade no caso contínuo.

Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição de Bernoulli com parâmetro $ \theta$ e queremos testar $ H_0:\theta\le\theta_0\times H_1:\theta>\theta_0$. Então, definindo $ t(\bfx)=\sum_{i=1}^n x_i$ temos que

$\displaystyle p(\bfx\vert\theta)=\theta^{t(\bfx)}(1-\theta)^{n-t(\bfx)}
$

e para $ \theta_1<\theta_2$ a razão de verossimilhança fica

$\displaystyle \frac{\theta_2^{t(\bfx)}(1-\theta_2)^{n-t(\bfx)}}
{\theta_1^{t(\b...
...a_2)}\right]^t
\left(\frac{1-\theta_2}{1-\theta_1}\right)^n = \alpha^t\beta^n.
$

Como $ \theta_2>\theta_1$ e $ 1-\theta_1>1-\theta_2$ então $ \alpha>1$ e a RV é uma função crescente em $ t$. Portanto, o teste UMP rejeita $ H_0$ se $ \sum_{i=1}^n X_i>c$ confirmando assim o resultado no exemplo 2..8.

Exercícios

  1. Para cada uma das distribuições abaixo considere uma amostra aleatória $ X_1,\dots,X_n$ e obtenha o teste UMP para testar as hipóteses $ H_0:\theta\le\theta_0\times H_0:\theta>\theta_0$.
    1. Poisson com parâmetro $ \theta$.
    2. Normal com média conhecida e variância desconhecida.
    3. Gama com parâmetro $ \alpha$ desconhecido e $ \beta$ conhecido.
    4. Gama com parâmetro $ \alpha$ conhecido e $ \beta$ desconhecido.

  2. Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição $ N(0,\s)$ com $ \s$ desconhecido. Obtenha o teste UMP para testar as hipóteses
    $ H_0:\s\le 2~\times~H_0:\s > 2$ com $ n=10$ e $ \alpha=0,05$.

  3. Suponha que $ X_1,\dots,X_n$ seja uma amostra aleatória da distribuição exponencial com parâmetro $ \theta$ e queremos testar $ H_0:\theta\ge
1/2~\times~ H_0:\theta < 1/2$. Obtenha o teste UMP para estas hipóteses com $ n=10$ e $ \alpha=0,05$.

  4. Suponha que $ X_1,\dots,X_n$ seja uma amostra aleatória da distribuição de Poisson com parâmetro $ \theta$ e queremos testar $ H_0:\theta\le
1\times H_0:\theta > 1$. Obtenha o teste UMP para estas hipóteses com $ n=10$ e $ \alpha=0,05$.

  5. Seja $ X_1,\dots,X_n$ é uma amostra aleatória da distribuição com função de densidade $ p(x\vert\theta)=\theta x^{\theta-1}$, para $ x\in(0,1)$  e  $ \theta>0$ desconhecido. Encontre o teste UMP para as hipóteses $ H_0:\theta\le 1$ $ \times$ $ H_1:\theta>1$ com nível de significância $ \alpha=0,05$.

  6. A proporção $ p$ de itens defeituosos em um grande lote de manufaturados é desconhecida. Uma amostra aleatória de 20 itens foi selecionada e inspecionada, e queremos testar as hipóteses $ H_0:p\le
0,1$ $ \times$ $ H_1:p> 0,1$. Obtenha o teste UMP.

  7. Suponha que $ X_1,\dots,X_n$ seja uma amostra aleatória da distribuição de Poisson com média $ \lambda$ desconhecida e queremos testar $ H_0:\lambda\ge
1\times H_0:\lambda < 1$. Para $ n=10$, verifique para quais níveis de significância no intervalo $ 0<\alpha<0,03$ existem testes UMP.

  8. Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição $ N(\mu,1)$ com $ \mu$ desconhecido e queremos testar as hipóteses $ H_0:\mu\le 0~\times~H_0:\mu > 0$. Sejam $ \delta^*$ o teste UMP ao nível $ \alpha=0,025$ e $ \pi(\mu\vert\delta^*)$ função poder do teste.
    1. Determine o menor valor de $ n$ para o qual $ \pi(\mu\vert\delta^*)\ge
0,9$ para
      $ \mu\ge 0,5$.
    2. Determine o menor valor de $ n$ para o qual $ \pi(\mu\vert\delta^*)\le
0,001$ para $ \mu\le -0,1$.

  9. Seja $ X_1,\dots,X_n$ uma amostra aleatória da distribuição $ \chi^2$ com número de graus de liberdade $ \theta$ desconhecido, $ \theta=1,2,\dots$. Suponha que queremos testar as hipóteses $ H_0:\theta\le 8\times H_1:\theta\ge 9$ ao nível de significância $ \alpha$. Mostre que existe um teste UMP que rejeita $ H_0$ se $ \sum_{i=1}^n\log X_i>k$ para uma constante $ k$.

2.4 Testes Bilaterais

Suponha agora que queremos testar hipóteses do tipo

$\displaystyle H_0:\theta = \theta_0 \times H_1:\theta \ne \theta_0,
$

ou seja $ H_0$ é uma hipótese simples e $ H_1$ é uma alternativa bilateral. Como veremos nas próximas seções este tipo de teste pode ser útil na comparação de tratamentos. O problema é que neste caso não existe um teste UMP para estas hipóteses, i.e. não é possível construir um teste cuja probabilidade de rejeitar $ H_0$ seja maximizada quando ela é falsa.

Alternativamente poderiamos construir testes tais que as chances de rejeitar $ H_0$ sejam maiores quando ela é falsa do que quando ela é verdadeira. Isto nos leva à definição de testes não viesados a seguir.

Um teste $ \delta$ é dito ser não viesado para as hipóteses $ H_0:\theta\in\Theta_0$ $ \times$ $ H_1:\theta\in\Theta_1$ se $ \forall$ $ \theta\in\Theta_0$ e $ \theta'\in\Theta_1$ então $ \pi(\theta)\le\pi(\theta')$. Caso contrário o teste é dito viesado.

Ou seja, em testes não viesados a probabilidade de rejeitar $ H_0$ quando ela é falsa é no mínimo tão grande quanto para $ H_0$ verdadeira.

Podemos agora tentar construir testes para hipóteses bilaterais que sejam UMP dentro da classe de testes não viesados. Se a distribuição pertence à família exponencial, pode-se mostrar que se $ \phi(\theta)$ for uma função estritamente crescente em $ \theta$ então o teste UMP não viesado de nível $ \alpha$ para $ H_0:\theta=\theta_0\times H_1:\theta\ne\theta_0$ aceita $ H_0$ quando $ c_1<T(\bfX)<c_2$. As constantes $ c_1$ e $ c_2$ são obtidas de modo que $ P(c_1<T(\bfX)<c_2~\vert~\theta=\theta_0)=1-\alpha$.

Note que existe uma infinidade de valores de $ c_1$ e $ c_2$ satisfazendo a esta condição. Em muitas situações é conveniente tomar valores tais que

$\displaystyle P(T(\bfX)<c_1~\vert~\theta=\theta_0)=
P(T(\bfX)>c_2~\vert~\theta=\theta_0)=\alpha/2
$

e se $ T(\bfX)$ tem uma distribuição simétrica em torno de um ponto isto implica em escolher $ c_1$ e $ c_2$ simetricamente em relação a este ponto. No entanto, nada impede que outros valores possam ser considerados. Por exemplo, o pesquisador pode considerar mais grave aceitar $ H_0$ quando $ \theta<\theta_0$ do que quando $ \theta>\theta_0$ e neste caso é melhor considerar testes com função de perda assimétrica.

Outra característica dos testes bilaterias é que o $ p$-valor será a soma de duas probabilidades. Assim, após observar a amostra temos um valor $ t(\bfx)$ da estatística $ T$ e calculamos

$\displaystyle P(T(\bfX)>t~\vert~\theta=\theta_0)
$

2.4.1 Testes Gerais

Em muitas situações não é possível obter nem mesmo um teste não viesado. Um procedimento geral para testar $ H_0:\theta\in\Theta_0$ $ \times$ $ H_1:\theta\in\Theta_1$ é baseado na estatística da razão de máxima verossimilhança (RMV) dada por

$\displaystyle \lambda(\bfX)=\frac
{\sup_{\theta\in\Theta_0}p(\bfX\vert\theta)}
{\sup_{\theta\in\Theta_1}p(\bfX\vert\theta)}
$

Deste modo estaremos comparando o valor máximo atingido pela função de verossimilhança quando $ \theta\in\Theta_0$ com o valor máximo atingido quando $ \theta\in\Theta_1$. Neste caso, é razoável decidir pela rejeição de $ H_0$ se $ \lambda(\bfX)<c$ onde a constante $ c$ é obtida de modo que

$\displaystyle \sup_{\theta\in\Theta_0}P(\lambda(\bfX)<c~\vert~\theta)\le\alpha.
$

Novamente, a igualdade será usada sempre que possível ficando a desigualdade para o caso de distribuições discretas.

Além do cálculo de valores máximos da função de verossimilhança existe outra dificuldade associada a estes testes que é a determinação da distribuição amostral de $ \lambda(\bfX)$. Este problema será discutido quando falarmos de testes assintóticos na Seção 2.6.

2.5 Testes de Hipóteses e Intervalos de Confiança

Existe uma forte conexão entre testes de hipóteses e intervalos de confiança.

2.6 Testes de Hipóteses no Modelo Normal

Os resultados desenvolvidos nas seções anteriores serão aplicados ao modelo normal para testes sobre média e variância em problemas de uma ou mais amostras e em modelos de regressão linear. Nesta seção considere uma amostra aleatória $ X_1,\cdots,X_n$ tomada da distribuição $ N(\theta,\s)$.

Suponha que queremos testar $ H_0:\theta=\theta_0\times H_1:\theta\ne\theta_0$ e inicialmente vamos assumir que $ \s$ é conhecida. Neste caso,

$\displaystyle p(\bfx\vert\theta)$ $\displaystyle =$ $\displaystyle (2\pi\s)^{-n/2}\exp\left(-\frac{1}{2\s}\sum_{i=1}^n(x_i-\theta)^2\right)$  
  $\displaystyle =$ $\displaystyle (2\pi\s)^{-n/2}\exp\left(-\frac{1}{2\s}\sum_{i=1}^n x_i^2\right)
\exp\left(\overline{\bfx}n\theta-\frac{n\theta^2}{2\s} \right)$  

e como $ n\theta$ é uma função estritamente crescente de $ \theta$ segue que o teste UMP não viesado rejeita $ H_0$ se $ \overline{\bfX}<c_1$ ou $ \overline{\bfX}>c_2$. Ao nível de significância $ \alpha$ podemos obter as constantes $ c_1$ e $ c_2$ tais que

$\displaystyle P(\overline{\bfX}<c_1~\vert~\theta=\theta_0)+
P(\overline{\bfX}>c_2~\vert~\theta=\theta_0)=\alpha.
$

Conforme discutido anteriormente, existe uma infinidade de valores que satisfazem esta condição. Na maioria dos experimentos envolvendo o modelo normal será conveniente tomar $ c_1$ e $ c_2$ simétricos em relação a $ E(\overline{\bfX})$. Assim, usando uma tabela da distribuição normal padronizada podemos obter o valor do percentil $ z_{\alpha/2}$ tal que

$\displaystyle P\left(-z_{\alpha/2}\le\frac{\sqrt{n}(\overline{\bfX}-\theta_0)}{\sigma}\le
z_{\alpha/2}\right) = 1-\alpha
$

e o teste bilateral UMP não viesado rejeita $ H_0$ se $ \overline{\bfX}<\theta_0-z_{\alpha/2}\sigma/\sqrt{n}$ ou $ \overline{\bfX}>\theta_0+z_{\alpha/2}\sigma/\sqrt{n}$.

No caso em que a variância populacional é também desconhecida o espaço dos parâmetro é $ \Theta=\{(\theta,\s):\theta\in\R,\s>0\}$ e vamos obter o teste da RMV. Note que, como $ H_0$ é uma hipótese simples então $ \Theta_0=\{(\theta_0,\s):\s>0\}$ e não é difícil verificar que o valor de $ \s$ que maximiza a verossimilhança para $ \theta_0$ fixo é $ \hat{\sigma}^2_0=\sum_{i=1}^n(x_i-\theta_0)^2/n$. Portanto,

$\displaystyle \sup_{(\theta,\s)\in\Theta_0}p(\bfX\vert\theta,\s) =
p(\bfx\vert\theta_0,\hat{\sigma}^2_0).
$

Para $ \theta\ne\theta_0$ a função de verossimilhança é maximizada em $ (\hat{\theta},\hat{\sigma}^2)$ onde $ \hat{\theta}=\overline{\bfx}$ e $ \hat{\sigma}^2=\sum_{i=1}^n(x_i-\overline{\bfx})^2/n$. Portanto

$\displaystyle \sup_{(\theta,\s)\in\Theta}p(\bfX\vert\theta,\s) =
p(\bfx\vert\hat{\theta},\hat{\sigma}^2).
$

Assim, a estatística da RMV é dada por

$\displaystyle \lambda(\bfX)=\frac
{(2\pi\hat{\sigma}^2_0)^{-n/2}
\exp\{-\sum_{i...
...igma}^2 )^{-n/2}
\exp\{-\sum_{i=1}^n(X_i-\overline{\bfX})^2/2\hat{\sigma}^2\}}
$

e substituindo as somas de quadrados obtemos que $ \lambda(\bfX)=(\hat{\sigma}^2_0/\hat{\sigma}^2)^{-n/2}$. Mas,

$\displaystyle \frac{\hat{\sigma}^2_0}{\hat{\sigma}^2}=
\frac{\sum_{i=1}^n(X_i-\...
...{\bfX})^2}=
1+\frac{n(\overline{\bfX}-\theta_0)^2}{(n-1)S^2}=1+\frac{T^2}{n-1}
$

onde $ T=\sqrt{n}(\overline{\bfX}-\theta_0)/S$ e então podemos reescrever a RMV como

$\displaystyle \lambda(\bfX)= \left(1+\frac{T^2}{n-1}\right)^{-n/2}.
$

Finalmente, o teste da RMV rejeita $ H_0$ se $ \lambda(\bfX)<c^*$ ou equivalentemente se $ T^2>c$ ou $ \vert T\vert>c$. Como $ T\sim t_{n-1}$ a constante $ c$ é simplesmente o percentil $ t_{\alpha/2,n-1}$ desta distribuição.

O teste desenvolvido acima é conhecido como teste $ t$ e talvez um dos mais utilizados em Estatística. Pode-se mostrar que o teste $ t$ é não viesado já que o valor mínimo da função poder ocorre em $ \theta=\theta_0$. Além disso, as propriedades do teste não são afetadas pelo valor de $ \s$ (parâmetro de distúrbio) já que $ \s$ foi substituido pelo seu estimador $ S^2$ e $ T$ é uma quantidade pivotal. O teste também é invariante a transformações lineares das observações.

Testes bilaterais do tipo $ H_0:\s=\s_0$ $ \times$ $ H_1:\s\ne\s_0$ para a variância podem ser construídos fazendo-se analogia com intervalos de confiança. Vimos na Seção 1.2.1 do Capítulo 1 que o intervalo de confiança de $ 100(1-\alpha)\%$ para $ \s$ é dado por

$\displaystyle \left(\frac{(n-1)s^2}{q2},\frac{(n-1)s^2}{q1}\right)
$

onde $ q_1$ e $ q_2$ são os quantis $ \alpha/2$ e $ 1-\alpha/2$ da distribuição $ \chi^2_{n-1}$. Assim, o teste deve aceitar $ H_0$ se e somente se $ \s_0$ estiver contido neste intervalo. Será deixado como exercício mostrar que este é o teste da razão de máxima verossimilhança para as hipóteses acima.

2.6.1 Testes para Várias Médias

Para começar vamos assumir que temos duas amostras aleatórias $ X_{11},\dots,X_{1n_1}$ e $ X_{21},\dots,X_{2n_2}$ das distribuições $ N(\theta_1,\s_1)$ e $ N(\theta_2,\s_2)$ respectivamente e que as amostras são independentes. Neste caso o vetor de parâmetros é $ (\theta_1,\theta_2,\s_1,\s_2)$ e em geral estaremos interessados em testar as hipóteses

    $\displaystyle H_0:\theta_1= \theta_2,\s_1>0,\s_2>0$  
    $\displaystyle H_1:\theta_1\ne\theta_2,\s_1>0,\s_2>0$ (2.1)

Se pudermos assumir que as variâncias populacionais são iguais, i.e. $ \s_1=\s_2=\s$, o problema de construção do teste se torna relativamente simples usando a estatística da razão de máxima verossimilhança. Neste caso, como as amostras são independentes, podemos escrever a função de verossimilhança como

$\displaystyle p(\bfx_1,\bfx_2\vert\theta_1,\theta_2,\s)=
p(\bfx_1\vert\theta_1,\s)p(\bfx_2\vert\theta_2,\s)
$

e após algum algebrismo segue que a verossimilhança de $ (\theta_1,\theta_2,\s)$ é dada por

$\displaystyle (2\pi\s)^{-(n_1+n_2)/2}
\exp\left\{
-\frac{1}{2\s}\left[
(n_1-1)S...
...overline{x}_1)^2+
(n_2-1)S_2^2+n_2(\theta_2-\overline{x}_2)^2
\right]\right\}.
$

Quando $ \theta_1\ne\theta_2$ as estimativas de máxima verossimilhança de $ \theta_1$, $ \theta_2$ e $ \s$ são respectivamente $ \overline{x}_1$, $ \overline{x}_2$ e

$\displaystyle \hat{\sigma}^2 = \frac{(n_1-1)S_1^2+(n_2-1)S_2^2}{n_1+n_2-2}
$

onde $ S_1^2$ e $ S_2^2$ são as variâncias amostrais. Quando $ \theta_1=\theta_2=\theta$ segue que as estimativas de máxima verossimilhança de $ \theta$ e $ \s$ são

$\displaystyle \hat{\theta}=\frac{n_1\overline{x}_1+n_2\overline{x}_2}{n_1+n_2}$   e$\displaystyle \quad
\hat{\sigma}_0^2=
\hat{\sigma}^2+\frac{n_1n_2}{(n_1+n_2)^2}(\overline{x}_1-\overline{x}_2)^2.
$

Substituindo estas expressões na razão de verossimilhanças pode-se mostrar que o teste da RMV rejeita $ H_0$ se

$\displaystyle \vert T\vert=
\left\vert\frac{(\overline{x}_1-\overline{x}_2)}
{\hat{\sigma}\sqrt{\dfrac{1}{n_1}+\dfrac{1}{n_2}}}\right\vert >c.
$

Pode-se mostrar que $ T$ tem distribuição $ t$ de Student com $ \nu=n_1+n_2-2$ graus de liberdade de modo que a constante $ c$ é simplesmente o percentil $ t_{\alpha/2,\nu}$ desta distribuição. Este teste é conhecido como teste $ t$ para duas amostras.

2.6.2 Variâncias Desconhecidas

O procedimento visto na seção anterior para variâncias iguais pode ser extendido facilmente para o caso de variâncias desconhecidas e desiguais, desde que a razão de variâncias $ \s_1/\s_2$ seja conhecida. Suponha por exemplo que $ \s_1=k\s_2$ onde $ k$ é uma constante positiva conhecida. Definindo-se

$\displaystyle \hat{\sigma}^2 = \frac{(n_1-1)S_1^2+(n_2-1)S_2^2/k}{n_1+n_2-2}
$

então pode-se mostrar que quando $ \theta_1=\theta_2$ a variável aleatória

$\displaystyle U=\frac{(\overline{X}_1-\overline{X}_2)}
{\hat{\sigma}\sqrt{\dfrac{1}{n_1}+\dfrac{k}{n_2}}}
$

tem distribuição $ t$ de Student com $ n_1+n_2-2$ graus de liberdade.

Finalmente, se mesmo a razão de variâncias for desconhecida então o problema de testar as hipóteses 2.1 torna-se bastante complexo. Este problema é conhecido na literatura como o problema de Behrens-Fisher. Vários procedimentos de teste já foram propostos e a maioria foi objeto de controvérsia em relação a sua utilidade e correção.

2.6.3 Comparação de Variâncias

Em problemas com duas ou mais amostras de distribuições normais é natural que se tenha interesse em comparar as variâncias populacionais. Neste caso, a distribuição $ F$ é utilizada para testar as hipóteses associadas. No caso de duas amostras suponha que queremos testar

    $\displaystyle H_0:\s_1\le\s_2$  
    $\displaystyle H_1:\s_1 > \s_2$  

Pode-se mostrar que não existe teste UMP para estas hipóteses e é prática comum utilizar-se o chamado teste $ F$. Este teste é não viesado e na verdade é UMP dentro da classe de testes não viesados. Usando a estatística da razão de máxima verossimilhança pode-se mostrar que o teste $ F$ rejeita $ H_0$ se

$\displaystyle \frac
{\sum_{i=1}^{n_1}(x_{1i}-\overline{x}_1)^2/(n_1-1)}
{\sum_{i=1}^{n_2}(x_{2i}-\overline{x}_2)^2/(n_2-1)} =
\frac{s_1^2}{s_2^2} > c.
$

Vimos na Seção 1.2.4 que

$\displaystyle \frac{S^2_1}{S^2_2}\frac{\s_2}{\s_1} \sim F(n_1-1,n_2-1).
$

e portanto a constante $ c$ pode ser obtida tal que

$\displaystyle P\left(\frac{S^2_1}{S^2_2}\frac{\s_2}{\s_1}>c\vert\s_1=\s_2\right) = \alpha
$

usando os valores tabelados da distribuição $ F$ com $ n_1-1$ e $ n_2-1$ graus de liberdade.

No caso de testes bilaterais, i.e.

    $\displaystyle H_0:\s_1 = \s_2$  
    $\displaystyle H_1:\s_1\ne\s_2$  

o teste $ F$ rejeita $ H_0$ se $ s_1^2/s_2^2 < c_1$ ou $ s_1^2/s_2^2 >
c_2$ onde as constantes $ c_1$ e $ c_2$ são mais uma vez obtidas como percentis da distribuição $ F$ com $ n_1-1$ e $ n_2-1$ graus de liberdade. Analogamente ao teste $ t$, é prática comum escolher $ c_1$ e $ c_2$ tal que as probabilidades nas caudas sejam iguais, i.e. $ \alpha/2$.

Exercícios

  1. Suponha que $ X_1,\dots,X_n$ é uma amostra aleatória da distribuição $ N(\mu,1)$ e queremos testar as hipóteses $ H_0:\mu=\mu_0$ $ \times$ $ H_1:\mu\ne\mu_0$. Considere um teste que rejeita $ H_0$ se $ \overline{X}\le c_1$ ou $ \overline{X}\ge c_2$.
    1. Determine os valores de $ c_1$ e $ c_2$ tais que $ \pi(\mu_0)=0,10$ e $ \pi(\mu)$ seja simétrica em torno de $ \mu_0$.
    2. Determine os valores de $ c_1$ e $ c_2$ tais que $ \pi(\mu_0)=0,10$ e o teste seja não viesado.
    3. Suponha que $ c_1=\mu_0-1,96/\sqrt{n}$. Determine $ c_2$ tal que $ \pi(\mu_0)=0,10$.
    4. Determine o menor valor de $ n$ para o qual $ \pi(\mu_0)=0,10$ e $ \pi(\mu_0+1)=\pi(\mu_0-1)\ge 0,95$.

  2. Suponha que $ X_1,\dots,X_n$ é uma amostra aleatória da distribuição $ N(\mu,1)$ e queremos testar as hipóteses
        $\displaystyle H_0:0,1\le\mu\le 0,2$  
        $\displaystyle H_1:\mu<0,1$ ou $\displaystyle \mu>0,2.$  

    Considere um teste que rejeita $ H_0$ se $ \overline{X}\le c_1$ ou $ \overline{X}\ge c_2$.
    1. Para $ n=25$ determine $ c_1$ e $ c_2$ tais que tais que $ \pi(0,1)=\pi(0,2)=0,07$.
    2. Idem para $ \pi(0,1)=0,02$ e $ \pi(0,2)=0,05$.

  3. Os comprimentos de fibras metálicas (em milímetros) produzidas por uma máquina têm distribuição normal com média $ \mu$ e variância $ \s$ desconhecidos. Suponha que queremos testar as seguintes hipóteses
        $\displaystyle H_0:\mu\le 5,2$  
        $\displaystyle H_1:\mu>5,2.$  

    Os comprimentos de 15 fibras selecionadas ao acaso foram medidos e obteve-se a média amostral $ \overline{x}=5,4$ e $ \sum_{i=1}^n(x_i-\overline{x})^2=2,5$.
    1. Construa um teste $ t$ ao nível de 0,05 baseado nestes resultados.
    2. Repita o item anterior para as hipóteses $ H_0:\mu= 5,2$ $ \times$ $ H_1:\mu \ne 5,2$. Qual a conclusão do exercício?

  4. Suponha que foi selecionada uma amostra aleatória de 9 observações da distribuição $ N(\mu,\s)$ com parâmetros desconhecidos. Obteve-se $ \overline{X}=22$ e $ \sum_{i=1}^n(X_i-\overline{X})^2=72$.
    1. Teste as hipóteses $ H_0:\mu\le 20~\times~H_1:\mu > 20$ ao nível de significância 0,05.
    2. Teste as hipóteses $ H_0:\mu=20~\times~H_1:\mu\ne 20$ ao nível de significância 0,05. Use um teste simétrico com probabilidade 0,025 em cada cauda.

  5. O tempo médio, por operário, para executar uma tarefa, tem sido de 100 minutos com desvio padrão de 15 minutos. Foi introduzida uma modificação para reduzir este tempo e após alguns meses foi selecionada uma amostra de 16 operários medindo-se o tempo de execução de cada um. Obteve-se um tempo médio amostral de 90 minutos e um desvio padrão amostral de 16 minutos. Estabeleça claramente as suposições que precisam ser feitas.
    1. Verifique se existem evidências, ao nível de significância 0,05, de que a modificação surtiu efeito?
    2. Verifique se há evidências, ao nível de significância 0,05, de que a modificação alterou a variância populacional.

  6. Uma indústria compra componentes eletrônicos dos fornecedores $ A$ e $ B$, mas o fornecedor $ A$ garante que o tempo médio de vida (em horas) do seu produto supera o da marca $ B$ em 300 horas. Para testar esta afirmação foram selecionadas duas amostras de componentes, uma de cada fornecedor, e obteve-se os seguintes tempos de vida:
    \fbox{\begin{tabular}{cl}
marca $A$\ & 1500 1450 1480 1520 1510 \\
marca $B$\ & 1100 1200 1180 1250
\end{tabular}}
    Após estabelecer claramente as suposições que precisam ser feitas,
    1. teste a hipótese de igualdade das variâncias dos tempos de vida, ao nível de significância 0,02;
    2. teste a afirmação do fornecedor $ A$, ao nível de significância 0,05.

  7. Uma droga $ A$ foi administrada em um grupo de 8 pacientes selecionados ao acaso. Após um período fixo de tempo a concentração da droga em certas células de cada paciente foi medida (em unidades apropriadas). O procedimento foi repetido em um outro grupo de 6 pacientes selecionados ao acaso usando uma droga $ B$. As concentrações obtidas foram
    \fbox{\begin{tabular}{cl}
droga $A$\ & 1,23 1,42 1,41 1,62 1,55 1,51 1,60 1,76\\
droga $B$\ & 1,76 1,41 1,87 1,49 1,67 1,81
\end{tabular}}
    Após estabelecer claramente as suposições que precisam ser feitas,
    1. teste a hipótese de que a concentração média de droga $ A$ entre todos os pacientes é pelo menos tão grande quanto da droga $ B$;
    2. teste a hipótese de que as concentrações médias das duas drogas são iguais.


2.7 Testes Assintóticos

Vimos que a construção de um teste envolve a obtenção de constantes através da distribuição de probabilidades de uma estatística. Em muitas situações, particularmente para a razão de máxima verossimilhança, estas distribuições não podem ser determinadas de forma exata e precisamos recorrer a resultados aproximados. Nesta seção serão desenvolvidos testes baseados em distribuições assintóticas das estatísticas de teste envolvidas. Iremos nos concentrar em testes baseados na distribuição assintótica da razão de máxima verossimilhança, do estimador de máxima verossimilhança e da função escore.

Suponha que uma amostra aleatória $ X_1,\dots,X_n$ é tomada de uma distribuição com parâmetro $ \theta\in\Theta\subset\mathbb{R}$ desconhecido e queremos testar $ H_0:\theta=\theta_0$. Expandindo em série de Taylor a função $ L(\theta_0)=\log p(\bfx\vert\theta_0)$ em torno do estimador de máxima verossimilhança $ \hat{\theta}$ obtemos

$\displaystyle L(\theta_0)\approx L(\hat{\theta}) +
U(\bfx;\hat{\theta})(\theta_0-\hat{\theta}) -
\frac{1}{2} J(\hat{\theta})(\theta_0-\hat{\theta})^2
$

onde $ J$ é a informação observada de Fisher definida na Seção 1.4 e podemos desprezar os termos de ordem mais alta já que, sob $ H_0$, $ \theta_0$ e $ \hat{\theta}$ estão próximos para $ n$ grande.

Mas função escore avaliada em $ \hat{\theta}$ é igual a zero por definição. Além disso, a razão de máxima verossimilhança neste caso é

$\displaystyle \lambda(\bfX)=\frac{p(\bfX\vert\theta_0)}{p(\bfX\vert\hat{\theta})}
$

e podemos escrever então que

$\displaystyle -2\log\lambda(\bfX)=
-2\log\left(\frac{p(\bfX\vert\theta_0)}{p(\b...
...L(\theta_0)-L(\hat{\theta})]\approx
J(\hat{\theta})(\theta_0-\hat{\theta})^2.
$

Lembrando que $ \hat{\theta}$ é assintóticamente normal com média $ \theta$ e usando o fato de que $ J(\hat{\theta})/n$ converge quase certamente para o seu valor esperado $ I(\theta_0)/n$ quando $ H_0$ é verdadeira então a distribuição assintótica de $ -2\log\lambda(\bfX)$ é $ \chi^2_1$. Assim, um teste com nível de significância assintótico $ \alpha$ rejeita $ H_0$ se $ -2\log\lambda(\bfX)>c$ onde $ c$ é tal que $ P(-2\log\lambda(\bfX)>c\vert\theta=\theta_0)=\alpha$.

Este resultado pode ser generalizado para o caso de um vetor de parâmetros $ \bftheta=(\theta,\dots,\theta_k)$ de dimensão $ k$. Neste caso, a estatística $ -2\log\lambda(\bfX)$ tem distribuição assintótica $ \chi^2_k$.

2.7.1 Teste Qui-quadrado

Um caso de particular interesse em Estatística é quando os dados são tais que cada observação pode ser classificada de acordo com um número finito de possíveis categorias. Por isso, observações deste tipo são chamadas dados categóricos e estaremos interessados em fazer inferência sobre as probabilidades de cada categoria.

Suponha que uma população consiste de itens que podem ser classificados em $ k$ diferentes categorias. Seja $ \theta_i$ a probabilidade de que um item selecionado ao acaso pertença à categoria $ i$, $ i=1,\dots,k$. Assumimos também que $ \theta_i\ge0$, $ i=1,\dots,k$ e $ \sum_{i=1}^n\theta_i=1$. Sejam agora os valores específicos $ \theta_1^0,\dots,\theta_k^0$ tais que $ \theta_i^0>0$, $ i=1,\dots,k$ e $ \sum_{i=1}^n\theta_i^0=1$ e queremos testar as hipóteses

    $\displaystyle H_0:\theta_i= \theta_i^0,\quad i=1,\dots,k$  
    $\displaystyle H_0:\theta_i\ne\theta_i^0,$   $\displaystyle \mbox{para ao menor um valor de $i$}$$\displaystyle .$ (2.2)

Suponha agora que uma amostra aleatória de tamanho $ n$ é tomada desta população e as hipóteses (2.2) serão testadas com base nesta amostra. Para isto vamos denotar $ N_i$ o número amostral de observações na categoria $ i$, i.e. $ N_1,\dots,N_k$ são inteiros não negativos tais que $ \sum_{i=1}^k N_i=n$. Quando $ H_0$ é verdadeira, o número esperado de observações do tipo $ i$ é $ n\theta_i$ e a diferença entre o número observado e o número esperado tende a ser menor quando $ H_0$ é verdadeira do que quando ela é falsa. Parece razoável então basear o teste nas magnitudes relativas destas diferenças. Neste caso, usando-se a função escore pode-se mostrar que o teste assintótico rejeita $ H_0$ se

$\displaystyle Q=\sum_{i=1}^k\frac{(N_i-n\theta_i^0)^2}{n\theta_i^0} > c
$

onde a estatística $ Q$ tem distribuição assintótica $ \chi^2_{k-1}$. Estes testes também são conhecidos na literatura como testes de qualidade de ajuste ou testes de aderência e estão entre os mais utilizados em Estatística.

Uma observação de ordem prática é que as frequências esperadas $ n\theta_i^0$ não devem ser muito pequenas para que a distribuição $ \chi^2$ seja uma boa aproximação da distribuição de $ Q$. Especificamente, pode-se mostrar que a aproximação será muito boa se $ n\theta_i^0\ge 5$ e apenas razoável $ n\theta_i^0\ge 1,5$.

Várias aplicações para dados categóricos e métodos não paramétricos que utilizam testes qui-quadrado podem ser vistas por exemplo em deg89.


next up previous contents
Next: A. Lista de Distribuições Up: CE-210 Inferência Estatística II Previous: 1. Estimação por Intervalos   Sumário
Ricardo Ehlers & Paulo Justiniano