Última atualização: 15 de março, 2024 às 17:22.

1 Regressão linear simples

1.1 Simulando dados do modelo

Considere o modelo de regressão linear simples: \[ Y_i = \beta_0 + \beta_1 x_i + \epsilon_i .\]

  1. Simule um conjunto de dados deste modelo. Descreva os passos da simulação.
  2. Faça um gráfico dos dados simulados.
  3. Adicione o modelo usado para gerar os dados ao gráfico.
  4. Adicione ao gráfico o modelo ajustado aos dados gerados.

1.2 Modificando o modelo

Para simular os dados no item anterior você definiu algumas coisas. Altere uma a uma as definições feita e avalie e descreva o efeito de cada uma delas.

1.3 Estudo de simulação (I)

Tome agora os definições de um bom modelo para ilustrar a regressão linear simples. Obtenha 1000 simulações deste modelo.

  1. Mostre em um gráfico todos os modelos estimados e o verdadeiro.
  2. Obtenha gráficos da densidade empírica das distribuições amostras dos estimadores dos parâmetros do modelos.
  3. Verifique e não tendenciosidade e a variância dos estimadores.

1.4 Estudo de simulação (II)

Repita o estudo do item anterior para diferentes tamanhos de amostra e verifique/ilustre as propriedades dos estimadores.

2 Comparação de grupos (DIC)

O modelo de análise de experimentos com mais de dois grupos é dado por: \[ Y_{ij} = \mu + \tau_i + \epsilon_{ij} .\]

Considere a situação em que se tem cinco grupos.

  1. Simule um conjunto de dados deste modelo. Descreva os passos da simulação.
  2. Faça um gráfico dos dados simulados.
  3. Adicione ao gráfico os médias ajustadas aos dados gerados.

2.1 Modificando o modelo

Para simular os dados no item anterior você definiu algumas coisas. Altere uma a uma as definições feita e avalie e descreva o efeito de cada uma delas.

Apêndice: Propriedades de estimadores

Seja \(T\) um estimador de um parâmetro \(\theta\).

  1. O estimador é dito não-viciado se \({\rm E}[T] = \theta\).
  2. A variância do estimador é \({\rm E}[(T - \text{E}[T])^2]\) e o erro padrão é a raiz quadrada deste valor.
  3. O erro quadrático médio (MSE de sigla em inglês) é \({\rm MSE}(T) = {\rm E}[(T - \theta)^2] = {\rm Var[T]} + (\text{E}(T) - \theta)^2\).
  4. Um estimador \(T_2\) é dito mais eficiente que \(T_1\) se \(\text{Var}(T_1) > \text{Var}(T_2)\) para todos valores de \(\theta\).
  5. \(T\) é dito consistente se \(\underset{n \to \infty}{\lim} \text{Pr}(|T_n - \theta| > \epsilon) = 0\).