Última atualização: 15 de março, 2024 às 17:22.
Regressão linear simples
Simulando dados do modelo
Considere o modelo de regressão linear simples: \[ Y_i = \beta_0 + \beta_1 x_i + \epsilon_i .\]
- Simule um conjunto de dados deste modelo. Descreva os passos da simulação.
- Faça um gráfico dos dados simulados.
- Adicione o modelo usado para gerar os dados ao gráfico.
- Adicione ao gráfico o modelo ajustado aos dados gerados.
Modificando o modelo
Para simular os dados no item anterior você definiu algumas coisas. Altere uma a uma as definições feita e avalie e descreva o efeito de cada uma delas.
Estudo de simulação (I)
Tome agora os definições de um bom modelo para ilustrar a regressão linear simples. Obtenha 1000 simulações deste modelo.
- Mostre em um gráfico todos os modelos estimados e o verdadeiro.
- Obtenha gráficos da densidade empírica das distribuições amostras dos estimadores dos parâmetros do modelos.
- Verifique e não tendenciosidade e a variância dos estimadores.
Estudo de simulação (II)
Repita o estudo do item anterior para diferentes tamanhos de amostra e verifique/ilustre as propriedades dos estimadores.
Comparação de grupos (DIC)
O modelo de análise de experimentos com mais de dois grupos é dado por: \[ Y_{ij} = \mu + \tau_i + \epsilon_{ij} .\]
Considere a situação em que se tem cinco grupos.
- Simule um conjunto de dados deste modelo. Descreva os passos da simulação.
- Faça um gráfico dos dados simulados.
- Adicione ao gráfico os médias ajustadas aos dados gerados.
Modificando o modelo
Para simular os dados no item anterior você definiu algumas coisas. Altere uma a uma as definições feita e avalie e descreva o efeito de cada uma delas.
Apêndice: Propriedades de estimadores
Seja \(T\) um estimador de um parâmetro \(\theta\).
- O estimador é dito não-viciado se \({\rm E}[T] = \theta\).
- A variância do estimador é \({\rm E}[(T - \text{E}[T])^2]\) e o erro padrão é a raiz quadrada deste valor.
- O erro quadrático médio (MSE de sigla em inglês) é \({\rm MSE}(T) = {\rm E}[(T - \theta)^2] = {\rm Var[T]} + (\text{E}(T) - \theta)^2\).
- Um estimador \(T_2\) é dito mais eficiente que \(T_1\) se \(\text{Var}(T_1) > \text{Var}(T_2)\) para todos valores de \(\theta\).
- \(T\) é dito consistente se \(\underset{n \to \infty}{\lim} \text{Pr}(|T_n - \theta| > \epsilon) = 0\).