Tabela de conteúdos

R-idículas - dicas curtas sobre R

R-idículas - dicas curtas sobre R

R-idículas é a página do LEG dedicada à fornecer dicas curtas sobre R, e.g. entre outras: otimização do ambiente, condução de análises, operação com dados e confecção de gráficos. As dicas estão organizadas pelo título, seguido de descrição, palavras-chave e CMR (código mínimo reproduzível). Se você deseja contribuir com a nossa página de R-idículas, envie e-mail para walmes@ufpr.br.


Controlando gráficamente parâmetros de distribuições de probabilidade

Temporariamente sem descrição.
palavras-chave: #rpanel.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
 
require(rpanel)
 
norm.panel <- function(panel){
  ##------------------------------------------------------------------
  ## panel$interval: vetor com domínio de plotagem da função
  ## penel$...: serão parâmetros da distribuição de probabilidades
  curve(dnorm(x, mean=panel$mean, sd=panel$sd),
        from=panel$interval[1], to=panel$interval[2])
  panel
  ##------------------------------------------------------------------
}
 
# passar os argumentos que serão fixos, abre a janelinha
panel <- rp.control(interval=c(-4,4))
 
# controla a média
rp.slider(panel, mean, -4, 4, initval=0, showvalue=TRUE, action=norm.panel)
 
# controla o desvio-padrão
rp.slider(panel, sd, 0.001, 10, initval=1, showvalue=TRUE, action=norm.panel)
 
#------------------------------------------------------------------------------------------


.Rprofile no Linux

#------------------------------------------------------------------------------------------
#                                                                               por JCFaria
#------------------------------------------------------------------------------------------

Esse post tem a finalidade de compartilhar algumas coisas que considero importantes na inicialização do R no Linux!

Muitas das opções importantes, do ponto de vista funcional (não relativos à aparência), podem ser feitas no arquivo .Rprofile. Esse arquivo deve ficar localizado no home do usuário (~/.Rprofile) e é um dos primeiros a ser lido quando uma sessão do R é iniciada.

Tenho uma função (bem simples) que uso bastante em meu dia a dia: "cv" para calcular o coef. de variação de uma ANOVA:

cv <- function(av)
{
  if(is.null(av) || !inherits(av, 'aov'))
    stop('Please, check the parameter!')
  qmee <- with(av, sum(residuals^2) / df.residual)
  cv   <- 100 * sqrt(qmee) / mean(av$fitted.values)
  return(round(cv, 2))
}     

Pois bem, a medida que vamos aumentando nossa intimidade com o R (inevitavelmente) iremos desenvolvendo nossas próprias funções (o R foi projetado para isso).

Ai vem o problema: ter que sempre carregar a função quando for usar, o que pode se tornar uma chatisse! Pior ainda, ao limpar o workspace do usuário (.GlobalEnv) ela é removida e precisa ser recarregada. Imagine o contexto da necessidade de várias funções, que é o que geralmente acontece com o passar do tempo …

Tem como contornar? Sim! De várias formas:

1. Opção muito pouco prática:

oldp <- getwd()
setwd('/home/jcfaria/dados/r/funcoes/') 
source('cv.r')
setwd(oldp)

A função "cv" ficará disponível no meu workspace mas será removida com a instrução:

> rm(list=ls()) 

muito usada por várias GUIs.

2. Opção mais prática: A mesma que a anterior, contudo, a função não deverá se chamar "cv", mas sim ".cv". Nesse caso ela permanecerá como um objeto oculto no meu workspace e não será removida com a intrução:

> rm(list=ls())

Contudo, poderá ser removida com a intrução:

> rm(list=ls(all=TRUE))

3. Colocando suas funções em algum ambiente (environment) do R (optei pelo base):

oldp <- getwd()
setwd('/home/jcfaria/dados/r/funcoes/') 
source('cv.r', local=baseenv())
setwd(oldp)

Ela não ficará no meu workspace, mas sim no base. Como tal, poderá ser usada com qualquer outra função desse pacote.

4. Criando seu próprio ambiente (acho a solução mais elegante):

oldp <- getwd()
setwd('/home/jcfaria/dados/r/funcoes/') 
.jcf <- new.env()
source('cv.r', local=.jcf)
setwd(oldp)

Nesse último caso [4]:

> .jcf$cv
 
# ou
 
> with(.jcf, cv)

Por exemplo:

> av <- aov(Sepal.Length ~ Species, data=iris)
> .jcf$cv(av)
[1] 8.81
 
# ou
 
> with(.jcf, cv(av))
[1] 8.81

Esta forma de carregar funções de forma permanente no R pode ser usado para qualquer outro objeto!

No Windows bastava usar no /etc/Rprofile.site:

source('cv', local=TRUE)

que ela ficava disponível no pacote base.

No Windows não testei na versão em desenvolvimento (instável) que uso no Linux, mas deve funcionar, pois usei por muitos anos em várias versões.

Abaixo meu .Rprofile:

## José Cláudio Faria/UESC/DCET
 
##¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬
## General options
library(utils)
options(list(repos='http://cran-r.c3sl.ufpr.br/',
             width=80,
             editor='vim',
             browser='chromium'))
 
##¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬
## Package debug: options
options(list(debug.height=10,
             debug.width=125,
             debug.screen.pos='-1680+00' # dois monitores!
             ))
 
##¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬
## Funtions: myself
oldp <- getwd()
setwd('/home/jcfaria/dados/r/funcoes/')
#source('fitreg.r',    local=baseenv())
#source('fitregl.r',   local=baseenv())
#source('fitrlcor.r',  local=baseenv())
#source('plotreg.r',   local=baseenv())
#source('plotrl.r',    local=baseenv())
#source('plotlm3d.r',  local=baseenv())
#source('cv.r',        local=baseenv())
#source('rs.r',        local=baseenv())
#source('sourcedir.r', local=baseenv())
 
.jcf <- new.env()
source('fitreg.r',    local=.jcf)
source('fitregl.r',   local=.jcf)
source('fitrlcor.r',  local=.jcf)
source('plotreg.r',   local=.jcf)
source('plotrl.r',    local=.jcf)
source('plotlm3d.r',  local=.jcf)
source('cv.r',        local=.jcf)
source('rs.r',        local=.jcf)
source('sourcedir.r', local=.jcf)
#attach(.jcf)
 
##¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬
## Removing variables
setwd(oldp)
rm(oldp)
 
##¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬¬
## Packages: loading
#library(fdth)
#library(ScottKnott)
#library(bpca)
#library(TukeyC)
#library(reshape)
#library(debug)


Como fazer a justaposição de vários data.frames

Temporariamente sem descrição.
palavras-chave: #merge, #Reduce.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
 
id <- 1:30  # número único que identifica os registros
n <- 20     # número de registros por data.frame
 
a1 <- data.frame(id=sample(id, n), v1=rnorm(n))     # resposta 1
a2 <- data.frame(id=sample(id, n), v2=rpois(n,10))  # resposta 2
a3 <- data.frame(id=sample(id, n), v3=runif(n))     # resposta 3
 
merge(a1, a2, by="id") # justapõe 2 data.frames de cada vez
 
a0 <- list(a1, a2, a3) # cria uma lista com todos os data.frames
 
 
Reduce(function(x, y) merge(x, y, by="id"), a0, accumulate=FALSE) # justapõe todos
 
#------------------------------------------------------------------------------------------
# font: http://rwiki.sciviews.org/doku.php?id=tips:data-frames:merge
#       https://stat.ethz.ch/pipermail/r-help/2008-April/160836.html
#       http://econometricsense.blogspot.com/2011/01/merging-multiple-data-frames-in-r.html
#       http://www.youtube.com/watch?v=E4uR5I1uLFM
 
#------------------------------------------------------------------------------------------
 
mergeAll <- function(..., by="date", all=TRUE){
  dotArgs <- list(...)
  Reduce(
         function(x, y){
           merge(x, y, by = by, all = all, suffixes=paste(".", names(dotArgs), sep = ""))
         },
         dotArgs)
}
 
mergeAll(a = a1, b = a2, c = a3, by="id")
 
str(.Last.value)
 
You also might be able to set it up to capture names without you having to put "a = a" etc. using substitute.
 
# http://r.789695.n4.nabble.com/merge-multiple-data-frames-td4331089.html
# ver reshape::merge_all()
#------------------------------------------------------------------------------------------


Gráfico de valores observados e curva de valores preditos para modelo linear generalizado

Temporariamente sem descrição.
palavras-chave: #glm, #poisson, #predict.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
 
da <- expand.grid(trat=gl(2,1), tempo=1:20)
y <- rpois(nrow(da), lambda=da$tempo/5)
 
g0 <- glm(y~trat/(tempo+I(tempo^2)), data=da, family=poisson)
 
new <- expand.grid(trat=gl(2,1), tempo=seq(1,20,l=50))
new$p0 <- predict(g0, newdata=new, type="response")
 
plot(y~tempo, da, col=da$trat)
with(subset(new, trat=="1"), lines(p0~tempo, col=1))
with(subset(new, trat=="2"), lines(p0~tempo, col=2))
 
#------------------------------------------------------------------------------------------


Gráficos de barras com intervalos de confiança para as médias

Temporariamente sem descrição.
palavras-chave: #intervalo, #erro_padrão, #barras.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# cmr para colocar intervalos de confiança para as medias num gráfico de barras
 
da <- data.frame(trat=gl(5,8))
da$y <- as.numeric(da$trat)+rnorm(nrow(da))
 
m0 <- lm(y~trat, da)
 
new <- data.frame(trat=levels(da$trat))
new$pred <- predict(m0, newdata=new, interval="confidence")
str(new)
 
ylim <- c(0, max(new$pred)*1.05)
bp <- barplot(new$pred[,1], ylim=ylim)
arrows(bp, new$pred[,2], bp, new$pred[,3], code=3, angle=90)
box()
 
#------------------------------------------------------------------------------------------
# outras referências
 
browseURL("http://addictedtor.free.fr/graphiques/graphcode.php?graph=54")
browseURL("http://addictedtor.free.fr/graphiques/RGraphGallery.php?graph=72")
 
#------------------------------------------------------------------------------------------


Gráficos do R exportados pelo dispositivo tikz

Temporariamente sem descrição.
palavras-chave: #tikz, #sweave, #latex.

\documentclass{article}

\usepackage{Sweave}
\usepackage{tikz}

\SweaveOpts{keep.source=true}

\title{Usando ti\textit{k}z no Sweave}
\author{Walmes Zeviani\\ LEG/UFPR}

\begin{document}

\maketitle

C\'{o}digo m\'{i}nimo reproduz\'{i}vel usando \texttt{tikzDevice} para exportar gr\'{a}ficos feitos no R
para codifica\c{c}\~{a}o ti\textit{k}z.

{\footnotesize
<<results=hide>>=
#------------------------------------------------------------------------------------------
require(tikzDevice)
set.seed(2011); x <- rnorm(200)
tikz("plot.tex", w=5, h=3)
hist(x, freq=FALSE, ylab="Densidade",
     main="Histograma de uma amostra de $X \\sim N(\\mu=0, \\sigma^2=1)$")
curve(dnorm(x), col=2, add=TRUE, lwd=2); rug(x)
legend("topleft", col=2, lty=1, lwd=2, bty="n",
       legend="$\\displaystyle \\frac{1}{\\sqrt{2\\pi\\sigma^2}}\\cdot e^{-\\frac{(x-\\mu)^2}{2\\sigma^2}}$")
box(); dev.off()
#------------------------------------------------------------------------------------------
@
}

\input{plot.tex}

\end{document}


Gráfico com dois eixos coordenados

Temporariamente sem descrição.
palavras-chave: #série, #eixo.

#------------------------------------------------------------------------------------------
#                                                               por Ivan, Benilton e Walmes
#------------------------------------------------------------------------------------------
# dados de séries de dados indexadas no tempo (meses)
 
lines <- 'meses  temp umidade    rad   chuva
    Jan    26.49   86.58    795.88  0.36
    Fev    26.65   88.49    710.24  0.34
    Mar    27.19   86.16    772.99  0.21
    Abr    26.28   89.75    574.88  0.67
    Mai    26.62   89.22    614.02  0.31
    Jun    26.13   87.83    680.08  0.26
    Jul    25.83   86.57    675.97  0.15
    Ago    27.05   83.14    756.44  0.07
    Set    27.60   83.02    925.57  0.14
    Out    27.44   85.16    927.71  0.17
    Nov    26.56   88.18    788.87  0.19
    Dez    25.87   90.63    703.94  0.33'
da <- read.table(textConnection(lines), header=TRUE)
str(da)
 
#------------------------------------------------------------------------------------------
# para enviar para outra pessoa pode-se enviar o resultado do comando dput(), assim
 
dput(da)
 
# cole na mensagem o resulado que aparece no console ao executar essa linha
# assim a pessoa pode ler fazendo assim
 
da <- 
structure(list(meses = structure(c(5L, 4L, 9L, 1L, 8L, 7L, 6L, 
2L, 12L, 11L, 10L, 3L), .Label = c("Abr", "Ago", "Dez", "Fev", 
"Jan", "Jul", "Jun", "Mai", "Mar", "Nov", "Out", "Set"), class = "factor"), 
    temp = c(26.49, 26.65, 27.19, 26.28, 26.62, 26.13, 25.83, 
    27.05, 27.6, 27.44, 26.56, 25.87), umidade = c(86.58, 88.49, 
    86.16, 89.75, 89.22, 87.83, 86.57, 83.14, 83.02, 85.16, 88.18, 
    90.63), rad = c(795.88, 710.24, 772.99, 574.88, 614.02, 680.08, 
    675.97, 756.44, 925.57, 927.71, 788.87, 703.94), chuva = c(0.36, 
    0.34, 0.21, 0.67, 0.31, 0.26, 0.15, 0.07, 0.14, 0.17, 0.19, 
    0.33)), .Names = c("meses", "temp", "umidade", "rad", "chuva"
), class = "data.frame", row.names = c(NA, -12L))
 
#------------------------------------------------------------------------------------------
# gráfico de duas séries no mesmo gráfico com um eixo coordenado para cada
 
par(mar=c(5,5,4,5))
plot(da$temp, type="b", pch=15, lwd=1.5,
     xlab="Meses (Anos 2010)", main="Temperatura e umidade em 2010",
     ylab=expression(Temperatura~group("(", degree*C, ")")),
     ylim=c(24,30), xlim=c(1,12), axes=FALSE)
axis(1, at=1:12, labels=da$meses)
axis(2)
par(new=TRUE)
plot(da$umidade, type="b", pch=14, axes=FALSE, frame=TRUE, ann=FALSE)
axis(4)
mtext(text="Umidade (%)", 4, line=3)
legend("topleft", bty="n", seg.len=3, lty=1, lwd=c(1.5,1), pch=c(15,14),
       legend=c("Temperatura","Umidade"), merge=TRUE, trace=FALSE)
 
#------------------------------------------------------------------------------------------
# funções sugeridas
 
apropos("month")
demo(plotmath)
 
#------------------------------------------------------------------------------------------


Análise de dados de proporção usando modelo linear generalizado

Temporariamente sem descrição.
palavras-chave: #binomial, #sucessos, #deviance, #wireframe, #fatorial, #superfície.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# dados de número de sementes viáveis de soja
 
rend <- read.table("http://www.leg.ufpr.br/~walmes/cursoR/rendimento.txt", header=TRUE)
rend <- transform(rend, k=factor(K), a=factor(A), bloc=factor(bloc))
str(rend)
 
#------------------------------------------------------------------------------------------
# ajuste modelo de caselas aos dados assumindo distribuição binomial (link=logit)
 
g0 <- glm(cbind(nv, nvi)~bloc+k*a, data=rend, family=binomial)
 
#------------------------------------------------------------------------------------------
# análise de resíduos usual para verificar anomalias
 
par(mfrow=c(2,2))
plot(g0)
layout(1)
 
#------------------------------------------------------------------------------------------
# quadro de estimativas e quadro de análise de deviance, faz a vez da anova
 
summary(g0)
anova(g0, test="Chisq")
 
#------------------------------------------------------------------------------------------
# obter modelo mais parcimonioso, usar fatores na forma contínua
 
g1 <- glm(cbind(nv, nvi)~bloc+K+A+I(K^2)+I(A^2)+K:A, data=rend, family=binomial)
summary(g1) # comparar deviance residual com grau de liberdade residual
g1 <- update(g1, formula=.~.-K:A, family=quasibinomial)
summary(g1)
anova(g1, test="F")
 
#------------------------------------------------------------------------------------------
# faz a predição dos valores (usando o apenas o bloco 1)
 
pred <- with(rend,
             expand.grid(A=seq(min(A),max(A),l=20),
                         K=seq(min(K),max(K),l=20),
                         bloc="1"))
pred$prob <- predict(g1, newdata=pred, type="response")
 
#------------------------------------------------------------------------------------------
# gráfico
 
require(lattice)
wireframe(prob~A+K, data=pred,
          zlab=list("Probabilidade de germinação", rot=90),
          scales=list(arrows=FALSE),
          screen=list(z=-50, x=-60), drape=TRUE)
 
#------------------------------------------------------------------------------------------


Desdobramento de interação em experimento fatorial

Temporariamente sem descrição.
palavras-chave: #desdobramento, #comparações, #teste_de_médias, #fatorial.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# importa e prepara os dados
 
rend <- read.table("http://www.leg.ufpr.br/~walmes/cursoR/rendimento.txt", header=TRUE)
str(rend)
rend <- transform(rend, K=factor(K), A=factor(A), bloc=factor(bloc))
str(rend)
 
#------------------------------------------------------------------------------------------
# análise gráfica
 
require(lattice)
xyplot(rg~K|A, groups=bloc, data=rend, type="b", auto.key=TRUE)
 
#------------------------------------------------------------------------------------------
# ajuste do modelo
 
m0 <- aov(rg~bloc+A*K, data=rend)
summary(m0)
 
#------------------------------------------------------------------------------------------
# checagem
 
par(mfrow=c(2,2)); plot(m0); layout(1)
 
#------------------------------------------------------------------------------------------
# desdobrando somas de quadrados para a variação de K dentro de A
 
m1 <- aov(rg~bloc+A/K, data=rend)
summary(m1)
summary(m1, split=list("A:K"=list(
                         "A-37.5"=c(1,4,7,10),
                         "A-50.0"=c(2,5,8,11),
                         "A-62.5"=c(3,6,9,12)
                         )))
 
#------------------------------------------------------------------------------------------
# para facilitar encontrar as posições pode-se fazer a busca por expessões regulares
 
names(coef(m1))[8:19]
grep("A37.5", names(coef(m1))[8:19])
grep("A50", names(coef(m1))[8:19])
grep("A62.5", names(coef(m1))[8:19])
 
#------------------------------------------------------------------------------------------
# usando as expressões regulares vamos desdobrar A dentro de K
 
m2 <- aov(rg~bloc+K/A, data=rend)
summary(m2)
names(coef(m2))
 
#------------------------------------------------------------------------------------------
# buscando pela expressão regular
 
grep("K0", names(coef(m2))[10:19])
desAinK <- sapply(paste("K", levels(rend$K),sep=""), simplify=FALSE,
                  grep, x=names(coef(m2)[10:19]))
 
#------------------------------------------------------------------------------------------
# decomposição das somas de quadrados
 
summary(m2, split=list("K:A"=desAinK))
 
#------------------------------------------------------------------------------------------
# usando o ExpDes (inglês) (https://sites.google.com/site/ericbferreira/unifal/downloads-1)
 
require(ExpDes)
help(package="ExpDes")
help(fat2.rbd, help_type="html")
 
#------------------------------------------------------------------------------------------
# aplicando a função do Eric fat2.rbd
 
with(rend, fat2.rbd(A, K, bloc, rg, mcomp="sk", quali=c(TRUE, TRUE)))
 
#------------------------------------------------------------------------------------------
# desdobrando a interação em testes de Tukey para níveis de K fixando os níveis de A
 
require(agricolae)
 
with(subset(rend, A=="37.5"),
     HSD.test(rg, K, DFerror=df.residual(m0), MSerror=deviance(m0)/df.residual(m0)))
with(subset(rend, A=="50"),
     HSD.test(rg, K, DFerror=df.residual(m0), MSerror=deviance(m0)/df.residual(m0)))
with(subset(rend, A=="62.5"),
     HSD.test(rg, K, DFerror=df.residual(m0), MSerror=deviance(m0)/df.residual(m0)))
 
#------------------------------------------------------------------------------------------
# usando funções para fazer o desdobramento (lapply)
 
levels(rend$A)
sapply(levels(rend$A), simplify=FALSE,
       function(a){
         with(subset(rend, A==a),
              HSD.test(rg, K,
                       DFerror=df.residual(m0),
                       MSerror=deviance(m0)/df.residual(m0)))
       })
 
#------------------------------------------------------------------------------------------
# fazendo o mesmo para o teste ScottKnott (a ordem A*K e K*A é importante!)
 
require(ScottKnott)
sk <- SK.nest(x=rend, y=rend$rg, model="y~bloc+A*K", which="A:K", fl2=1)
summary(sk)
sk <- SK.nest(x=rend, y=rend$rg, model="y~bloc+K*A", which="K:A", fl2=1)
summary(sk)
 
#------------------------------------------------------------------------------------------
# fazer o teste de ScottKnott com um comando apenas (lapply)
 
levels(rend$A)
lapply(seq_along(levels(rend$A)),
       function(a){
         sk <- SK.nest(x=rend, y=rend$rg, model="y~bloc+K*A", which="K:A", fl2=a)
         summary(sk)
       })
 
#------------------------------------------------------------------------------------------
 
levels(rend$K)
lapply(seq_along(levels(rend$K)),
       function(a){
         sk <- SK.nest(x=rend, y=rend$rg, model="y~bloc+A*K", which="A:K", fl2=a)
         summary(sk)
       })
 
#------------------------------------------------------------------------------------------
# uma forma mais interessante de ajeitar o resultado
 
require(plyr)
 
aux <- sapply(levels(rend$A), simplify=FALSE,
              function(a){
                with(subset(rend, A==a),
                     HSD.test(rg, K,
                              DFerror=df.residual(m0),
                              MSerror=deviance(m0)/df.residual(m0)))
              })
 
tTukey <- ldply(aux, NULL)
tTukey$M <- gsub(" ", "", tTukey$M, fixed=TRUE)
tTukey$trt <- as.factor(as.numeric(as.character(tTukey$trt)))
str(tTukey)
 
#------------------------------------------------------------------------------------------
# a cereja em cima do bolo como diz o PJ
 
barchart(means~trt|.id, data=tTukey, horiz=FALSE, layout=c(3,1),
         panel=function(x, y, subscripts, ...){
           panel.barchart(x, y, subscripts=subscripts, ...)
           panel.text(x, y, label=tTukey[subscripts,"M"], pos=3)
         })
 
#------------------------------------------------------------------------------------------


Gráfico para comportamento do desempenho em avaliações

Temporariamente sem descrição.
palavras-chave: .

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# gráficos para apresentar comportamento de notas de alunos em provas
 
p1 <- 10*rbeta(60, 7, 4) # notas na primeira avaliação
 
stati <- function(x){    # função para obter algumas estatísticas
  x <- na.omit(x); nobs <- length(x); xbar <- mean(x); md <- median(x)
  max <- max(x); min <- min(x); sd <- sd(x); fv <- fivenum(x)
  M <- data.frame(n=nobs, média=xbar, mediana=md, máximo=max, mínimo=min,
                  q1=fv[2], q3=fv[4], des.pad=sd)
  round(M,2)
}
 
texto <- paste(capture.output(t(as.matrix(stati(p1))))[-1], collapse="\n")
rgb.palette <- colorRampPalette(c("red","yellow"), space="rgb") # escala de cores
op <- par()
 
par(mar=c(5.1,4.1,0,0), fig=c(0,0.7,0,0.7))
plot(ecdf(p1), main=NULL, xlim=c(0,10), col=1, lwd=2,
     col.01line=NULL, xaxt="n", verticals=TRUE, cex=0, las=2,
     ylab="Distribuição acumulada empírica", xlab="Nota")
axis(1, at=0:10)
rug(p1)
abline(v=0:10, h=seq(0,1,by=0.1), col="gray75")
abline(v=7, lty=3)
par(family="mono")
text(0,1, label=texto, adj=c(0,1))
 
par(op)
par(mar=c(5.1,0,0,3.1), new=TRUE, fig=c(0.7,1,0,0.7))
boxplot(p1, notch=TRUE, yaxt="n", ylim=c(0,10), col="orange")
rug(p1, side=4, ticksize=0.07)
abline(h=7, lty=3)
axis(4, at=0:10, las=2)
points(1, mean(p1))
 
par(mar=c(0,4.1,1.5,0), new=TRUE, fig=c(0,0.7,0.7,1))
ht <- hist(p1, freq=FALSE, xaxt="n", xlim=c(0,10), main=NULL,
           ylab="Densidade", col=rgb.palette(10), las=2)
text(ht$mids, ht$density, ht$counts, pos=1)
rug(p1)
abline(v=7, lty=3)
lines(density(p1, from=0, to=10), col=1, lwd=2)
box()
 
#------------------------------------------------------------------------------------------


Desdobramento de interação usando a multcomp::glht()

Temporariamente sem descrição.
palavras-chave: #desdobramento, #glht, #comparações, #teste_de_médias, #fatorial, #contrastes.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# dados e ajuste
 
da <- expand.grid(A=gl(3,4, labels="a"), B=gl(2,1, labels="b"))
da$y <- rnorm(nrow(da))
da
 
m0 <- lm(y~A*B, da)
summary(m0)
 
#------------------------------------------------------------------------------------------
# pacotes necessários
 
require(contrast)
require(multcomp)
 
#------------------------------------------------------------------------------------------
# níveis dos fatores
 
ii <- levels(da$A)
jj <- levels(da$B)
 
#------------------------------------------------------------------------------------------
# preparar a matriz contrastes para A dentro de B, esse esquema foi um artifício que criei
 
m.contr <- outer(ii, ii,
                 function(x,y){ paste(x, y, sep="-") })
m.contr <- m.contr[upper.tri(m.contr)]
p.contr <- do.call(rbind, strsplit(m.contr, "-"))
p.contr
 
#------------------------------------------------------------------------------------------
# lista com as matrizes dos contrastes que específicam o desdobramento A dentro de B
 
c.X <- sapply(jj, simplify=FALSE,
              function(j){
                sapply(1:nrow(p.contr),
                       function(i){
                         c.contr <- contrast(m0,
                                             list(A=p.contr[i,1], B=j),
                                             list(A=p.contr[i,2], B=j))
                         c.contr$X
                       })})
c.X
 
#------------------------------------------------------------------------------------------
# usando a glht para desdobrar, cada entrada da lista é um nível de B
 
mc.contr <- sapply(c.X, simplify=FALSE,
                   function(X){
                     summary(glht(m0, linfct=t(X)))
                   })
mc.contr
 
#------------------------------------------------------------------------------------------


Regressão na análise de variância

No exemplo abaixo fazemos a análise de um experimento fatorial. São combinados três níveis de um fator qualitativo (cultivar de sorgo) com 6 níveis de um fator quantitativo (dose de nitrogênio). A resposta avaliada nas parcelas é o índice agronômico. O experimento foi instalado em blocos. A interação entre as fontes de variação foi significativa. O desdobramento dessa interação foi feita nos dois sentidos, ou seja, estudo do fator dose fixando nível do fator cultivar e estudo do fator cultivar fixando o nível do fator dose. Foi feito a ajuste de modelos de regressão polinomial para o estudo do fator dose. São ilustrados passos para teste de hipótese sobre os efeitos linear, quadrático, etc, e falta de ajuste do modelo ajustado, além de como obter as estimativas dos termos do modelo e o coeficiente de determinação (R²).
palavras-chave: #regressão, #polinômio, #anova.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# dados
sorgo <- read.table("http://www.leg.ufpr.br/~walmes/docs/anovareg.txt", header=TRUE)
sorgo <- transform(sorgo, bloco=factor(bloco), cultivar=factor(cultivar))
str(sorgo)
                                                                                          #
#------------------------------------------------------------------------------------------
# gráficos exploratórios
require(lattice)
xyplot(indice~dose|cultivar, groups=bloco, data=sorgo,
       jitter.x=TRUE, type=c("p","l"), layout=c(3,1))
xyplot(indice~dose, groups=cultivar, data=sorgo, jitter.x=TRUE, type=c("p","a"))
                                                                                          #
#------------------------------------------------------------------------------------------
# análise de variância do modelo de fatores
m0 <- aov(indice~bloco+cultivar*ordered(dose), data=sorgo)
summary(m0)
                                                                                          #
#------------------------------------------------------------------------------------------
# checagem
par(mfrow=c(2,2))
plot(m0)
layout(1)
                                                                                          #
#------------------------------------------------------------------------------------------
# desdobrando as somas de quadrados de doses dentro de cultivar
# dicas: forneça para ’by’ o número de níveis de cultivar (3)
# forneça para ’length.out’ os graus de liberdade de dose (6-1)
m1 <- aov(indice~bloco+cultivar/ordered(dose), data=sorgo)
summary(m1)
coef(m1)
summary(m1, split=list("cultivar:ordered(dose)"=list(
                         "Ag-1002"=seq(1, by=3, length.out=5),
                         "BR-300"=seq(2, by=3, length.out=5),
                         "Pioneer-B815"=seq(3, by=3, length.out=5)
                         )))
                                                                                          #
#------------------------------------------------------------------------------------------
# desdobrando somas de quadrados de cultivar dentro das doses
# dicas: forneça para ’by’ o número de níveis de dose (6)
# forneça para ’length.out’ os graus de liberdade de cultivar (3-1)
m2 <- aov(indice~bloco+ordered(dose)/cultivar, data=sorgo)
coef(m2)
summary(m2, split=list("ordered(dose):cultivar"=list(
                         "N.0"=seq(1, by=6, length.out=2),
                         "N.60"=seq(2, by=6, length.out=2),
                         "N.120"=seq(3, by=6, length.out=2),
                         "N.180"=seq(4, by=6, length.out=2),
                         "N.240"=seq(5, by=6, length.out=2),
                         "N.300"=seq(6, by=6, length.out=2)
                         )))
                                                                                          #
#------------------------------------------------------------------------------------------
# desdobrando efeitos dos graus polinômio dentro de dose dentro de cultivar
# lof é falta de ajuste (lack of fit)
summary(m1, split=list("cultivar:ordered(dose)"=list(
                         "Ag-1002.L"=1,
                         "Ag-1002.Q"=4,
                         "Ag-1002.C"=7,
                         "Ag-1002.lof"=c(10,13),
                         "BR-300.L"=2,
                         "BR-300.Q"=5,
                         "BR-300.C"=8,
                         "BR-300.lof"=c(11,14),
                         "Pioneer-B815.L"=3,
                         "Pioneer-B815.Q"=6,
                         "Pioneer-B815.C"=9,
                         "Pioneer-B815.lof"=c(12,15)
                         )))
                                                                                          #
#------------------------------------------------------------------------------------------
# obter as equações de regressão e R^2 para os modelos linear, quadrático e cúbico
# dica: usar contraste tipo soma zero para blocos para se anularem na fórmula
# e remover o intercepto especificando o ’-1’, trocar a ordem dos termos no modelo
# linear (estimativas corretas mas erros padrões e p-valores precisam de correção)
m3 <- aov(indice~-1+cultivar/dose+bloco, data=sorgo,
          contrast=list(bloco=contr.sum))
summary.lm(m3)
                                                                                          #
#------------------------------------------------------------------------------------------
# quadrático (estimativas corretas mas erros padrões e p-valores precisam de correção)
m4 <- aov(indice~-1+cultivar/(dose+I(dose^2))+bloco, data=sorgo,
          contrast=list(bloco=contr.sum))
summary.lm(m4)
                                                                                          #
#------------------------------------------------------------------------------------------
# cúbico (estimativas corretas mas erros padrões e p-valores precisam de correção)
m5 <- aov(indice~-1+cultivar/(dose+I(dose^2)+I(dose^3))+bloco, data=sorgo,
          contrast=list(bloco=contr.sum))
summary.lm(m5)
                                                                                          #
#------------------------------------------------------------------------------------------
# calcular os R^2
sapply(c(linear=1, quadrático=2, cúbico=3),
       function(degree){
         sapply(levels(sorgo$cultivar),
                function(i){
                  da <- with(subset(sorgo, cultivar==i),
                             aggregate(indice, list(dose=dose), mean))
                  summary(lm(x~poly(dose, degree, raw=TRUE), da))$r.squared
                })})
                                                                                          #
#------------------------------------------------------------------------------------------


Experimento com dois fatores de efeito aditivo e perda de muitas parcelas

Apresenta a análise de um experimento de dois fatores qualitativos com a perda de muitas parcelas. Nesse caso, a perda de parcelas não compromete a estimabilidade dos efeitos dos níveis dos fatores, apenas implica que eles sejam estimados com precisões diferentes. Além disso, a ortogonalidade entre os efeitos é perdida e a interpretação dos testes de hipótese pela análise de variância requer cuidados. Finalmente, é ilustrado a obtenção das estimativas das médias marginais para os níveis dos fatores (conhecidas por lsmeans na documentação de outro aplicativo) e realizadas as comparações múltiplas dessas médias com correção para o nível nominal de significância.
palavras-chave: #parcela_perdida, #desbalanceamento, #médias_ajustadas, #aditivo.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# dados
 
da <- expand.grid(rept=1:5, ep=factor(1:5), tr=factor(1:4))
da$y <- c(58.4, NA, NA, NA, NA, NA, NA, NA, NA, NA, NA, NA, NA, NA, NA, NA, NA,
          68.4, NA, NA, NA, NA, 258.8, 265.6, NA, NA, NA, NA, NA, 250, NA, 278.8,
          268.8, NA, NA, NA, 309.6, NA, NA, NA, NA, NA, NA, NA, NA, NA, 254, 598.8,
          NA, NA, NA, NA, 250, 399.6, 260, NA, NA, NA, 288.4, NA, NA, NA, 397.2, NA,
          NA, 337.6, NA, 415.2, NA, 450.8, NA, NA, NA, NA, 393.2, NA, NA, NA, NA,
          NA, NA, NA, 380.4, NA, NA, NA, NA, NA, NA, NA, NA, NA, NA, 634, 417.2,
          NA, NA, NA, NA, NA)
 
#------------------------------------------------------------------------------------------
# ajuste do modelo aditivo com teste F marginal
 
m0 <- lm(y~ep+tr, data=da)
drop1(m0, test="F")
 
#------------------------------------------------------------------------------------------
# análise gráfica dos resíduos
 
par(mfrow=c(2,2))
plot(m0)
layout(1)
 
#------------------------------------------------------------------------------------------
# estimativas dos efeitos (solução) sob a restrição do R
 
summary(m0)
 
#------------------------------------------------------------------------------------------
# obtenção das médias ajustadas dos níveis de tratamento
 
require(contrast)
lapply(levels(da$tr),
       function(i){
         contrast(m0, type="average", list(tr=i, ep=levels(da$ep)))
       }
       )
 
#------------------------------------------------------------------------------------------
# comparação múltipla de efeitos
 
require(multcomp)
summary(glht(m0, linfct=mcp(tr="Tukey")))
 
#------------------------------------------------------------------------------------------


Experimento em parcelas subdivididas com resposta do tipo binomial

Temporariamente sem descrição.
palavras-chave: #binomial, #subdividida, #verossimilhança, #experimento, #glm.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# pacote que contem a função glmmPQL. pode-se usar a lme4::glmer()
 
require(MASS)
 
#------------------------------------------------------------------------------------------
# simulandos com a estrutura de um modelo de parcelas subdivididas e resposta binomial
# melhor forma de entender como são gerados os valores observados num experimento
 
nA <- 4;                              # número de níveis de um fator A de efeito fixo
nB <- 8;                              # número de níveis de um fator B de efeito aleatório
nC <- 2;                              # número de níveis de um fator C de efeito fixo
da <- expand.grid(A=factor(1:nA), B=factor(1:nB), C=factor(1:nC))
da$parcela <- with(da, factor(paste(A,B,sep="-"))) # níveis de parcela aleatório
XA <- model.matrix(~A-1, data=da)        # matriz dos efeitos fixos para A
XB <- model.matrix(~B-1, data=da)        # matriz dos efeitos aleatórios de B
XC <- model.matrix(~C-1, data=da)        # matriz dos efeitos fixos para C
Xp <- model.matrix(~parcela-1, data=da)  # matriz dos efeitos aleatórios de parcela
bA <- c(-1,0,1,1)                        # vetor de efeitos fixos A
bB <- rnorm(nlevels(da$B),0,1)           # vetor de efeitos aleatórios B
bC <- c(0,-1)                            # vetor de efeitos fixos C
bp <- rnorm(nlevels(da$parcela),0,1)     # vetor de efeitos aleatórios parcela
 
da$eta <- XA%*%bA+XB%*%bB+XC%*%bC+Xp%*%bp   # vetor de valores preditos
summary(exp(da$eta)/(1+exp(da$eta)))        # vetor das probabilidades preditas
da$yobs <- rbinom(nrow(da),
                  prob=exp(da$eta)/(1+exp(da$eta)),
                  size=100) # vetor de dados observados
summary(da$yobs)
str(da)
 
#------------------------------------------------------------------------------------------
# estimação de parâmetros via máxima verossimilhança (usando Penalized Quasi Likelihood)
 
m0 <- glmmPQL(cbind(yobs, 100-yobs)~A*C, random=~1|B/parcela, data=da, family=binomial)
summary(m0)
 
#------------------------------------------------------------------------------------------


Duas ou mais funções em um mesmo gráfico

Temporariamente sem descrição.
palavras-chave: #gráfico, #função, #curva.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# cria os vetores usando as funções abaixo e plota 2 num mesmo gráfico
 
x <- seq(0, 10, by=0.1)
y1 <- 4-0.3*x+0.02*x^2
y2 <- 3+exp(-0.9*x)
matplot(x, cbind(y1, y2), lty=1, col=1:2, type="l")
 
#------------------------------------------------------------------------------------------


Representação de ajuste de curvas de regressão no mesmo gráfico

Faremos o ajuste de três curvas de regressão à dados de índice agronômico de sorgo em função da dose de nitrogênio aplicada. Os dados estão classificados para três cultivares de sorgo. Apesar de se tratar de um experimento em blocos, isso será ignorado no exemplo que tem o objetivo de apresentar os comandos para ajustar curvas e representar o ajuste no mesmo gráfico. palavras-chave: #regressão, #lapply, #curvas, #ajuste, #lines, #subset.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# dados.
 
sorgo <- read.table("http://www.leg.ufpr.br/~walmes/docs/anovareg.txt", header=TRUE)
sorgo <- transform(sorgo, bloco=factor(bloco), cultivar=factor(cultivar))
str(sorgo)
 
#------------------------------------------------------------------------------------------
# usaremos esse banco de dados para ajustarmos curvas de regressão separadas por cultivar.
# iremos ignorar a presença de blocos assumindo amostragem aleatória simples dos dados.
 
#------------------------------------------------------------------------------------------
# gráfico de dispersão dos dados.
 
levels(sorgo$cultivar)
par(mfrow=c(1,3))
with(sorgo, sapply(levels(sorgo$cultivar),
                   function(x){
                     plot(indice~dose, subset(sorgo, cultivar==x), main=x)
                   }
                   )
     )
 
#------------------------------------------------------------------------------------------
# ajustaremos uma curva para cada cultivar. pode-se usar a lapply o tempo todo para isso.
 
levels(sorgo$cultivar)
mAG <- lm(indice~dose+I(dose^2), data=subset(sorgo, cultivar==levels(sorgo$cultivar)[1]))
mBR <- lm(indice~dose+I(dose^2), data=subset(sorgo, cultivar==levels(sorgo$cultivar)[2]))
mPi <- lm(indice~dose+I(dose^2), data=subset(sorgo, cultivar==levels(sorgo$cultivar)[3]))
 
lapply(list(mAG, mBR, mPi), summary)
lapply(list(mAG, mBR, mPi), anova)
 
#------------------------------------------------------------------------------------------
# agora faremos os gráficos dos valores observados com as retas dentro
# jitter() é para "agitar" os valores de dose antes de plotar, apenas para melhorar aspecto
 
layout(1)
plot(indice~jitter(dose), data=sorgo, col=sorgo$cultivar)
with(subset(sorgo, cultivar==levels(sorgo$cultivar)[1]), lines(predict(mAG)~dose, col=1))
with(subset(sorgo, cultivar==levels(sorgo$cultivar)[2]), lines(predict(mBR)~dose, col=2))
with(subset(sorgo, cultivar==levels(sorgo$cultivar)[3]), lines(predict(mPi)~dose, col=3))
 
#------------------------------------------------------------------------------------------
Pode-se usar as funções sapply() e/ou lapply() para tornar o código mais eficiente/enxuto.


Análise intrabloco e interbloco de experimento em blocos incompletos tipo III

Para análise intrabloco pode-se usar a função agricolae::BIB.test().
palavras-chave: #bloco_incompleto, #intrabloco, #interbloco, #efeito_aleatório, #Tukey, #média_ajustada.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# dados de um experimento em blocos incompletos tipo III (Pimentel Gomes, p.179)
 
bib3 <- c(1, 1, 35, 1, 2, 28, 1, 3, 27, 2, 1, 30, 2, 2, 20, 2, 4, 22,
          3, 1, 28, 3, 2, 16, 3, 5, 18, 4, 1, 36, 4, 3, 29, 4, 4, 30,
          5, 1, 29, 5, 3, 19, 5, 5, 22, 6, 1, 25, 6, 4, 16, 6, 5, 19,
          7, 2, 26, 7, 3, 30, 7, 4, 28, 8, 2, 27, 8, 3, 29, 8, 5, 27,
          9, 2, 29, 9, 4, 29, 9, 5, 27, 10, 3, 27, 10, 4, 26, 10, 5, 29)
bib3 <- as.data.frame(matrix(bib3, ncol=3, byrow=TRUE))
names(bib3) <- c("bloc","trat","resp") 
bib3 <- transform(bib3, bloc=factor(bloc), trat=factor(trat))
str(bib3)
 
#------------------------------------------------------------------------------------------
# número de ocorrência de tratamento com blocos e número de níveis dos fatores
 
with(bib3, table(trat, bloc))
levels(bib3$trat)
levels(bib3$bloc)
 
#------------------------------------------------------------------------------------------
# análise intrabloco
#------------------------------------------------------------------------------------------
# soma de quadrados sequencial com tratamentos ajustados aos blocos (intrabloco)
 
m0 <- lm(resp~bloc+trat, data=bib3)
anova(m0)
 
#------------------------------------------------------------------------------------------
# checagem das pressuposições
 
par(mfrow=c(2,2))
plot(m0)
layout(1)
 
#------------------------------------------------------------------------------------------
# soma de quadrados sequencial com blocos ajustados aos tratamentos
 
m1 <- lm(resp~trat+bloc, data=bib3)
anova(m1)
 
#------------------------------------------------------------------------------------------
# soma de quadrados marginal, ambos fatores ajustados um ao outro
 
drop1(m1, scope=.~., test="F")
car::Anova(m1, type="III")
 
#------------------------------------------------------------------------------------------
# obtenção das médias ajustadas
# uso da opção de contraste tipo soma zero torna mais simples as operações matriciais
# nesse caso (intercept) representa a média geral
 
m0 <- lm(resp~bloc+trat, data=bib3,
         contrast=list(bloc=contr.sum, trat=contr.sum))
 
#------------------------------------------------------------------------------------------
# vamos usar a matriz de contraste dos efeitos dos tratamentos e posições dos efeitos no
# vetor de estimativas
 
m0$contrast$trat
m0$assign
 
#------------------------------------------------------------------------------------------
# obtenção das médias ajustadas é o produto matricial abaixo somado à média geral
 
maju <- c(m0$contrast$trat%*%coef(m0)[m0$assign==2]+coef(m0)[1])
maju
 
#------------------------------------------------------------------------------------------
# vetor de coeficientes do contraste tr1 vs tr2 e sua estimativa
 
contr <- rep(c(0,0,1,-1,0), c(1, nlevels(bib3$bloc)-1, 1, 1, nlevels(bib3$trat)-3)); contr
sum(contr*coef(m0))
 
#------------------------------------------------------------------------------------------
# variância do contraste, como tem equilibrio, todos os contrastes tem mesma variância
 
v.dif <- contr%*%vcov(m0)%*%contr; v.dif
 
#------------------------------------------------------------------------------------------
# diferença mínima significativa pelo teste de Tukey
 
delta <- qtukey(0.95, nlevels(bib3$trat), df=df.residual(m0))*sqrt(0.5*v.dif); delta
 
#------------------------------------------------------------------------------------------
# aplicação do teste de Tukey
 
taju <- agricolae::order.stat(levels(bib3$trat), maju, delta)
 
#------------------------------------------------------------------------------------------
# gráfico de barras com as médias
 
taju2 <- taju$means
names(taju2) <- taju$trt
 
bp <- barplot(taju2,
              xlab="Tratamentos", ylab="Variável resposta",
              ylim=c(0, 1.2*max(taju2)))
text(bp, taju2,
     labels=paste(format(taju$means,dig=3), gsub(" ","",taju$M), sep="\n"), pos=3)
mtext(3, line=2,
      text="Comparação múltipla de médias", cex=1.5)
mtext(3, line=0.5,
      text="Médias seguidas de mesma letra não diferem entre si pelo teste de Tukey (5%)")
box()
 
#------------------------------------------------------------------------------------------
# análise interbloco
#------------------------------------------------------------------------------------------
# ajuste do modelo, anova() não faz anova e sim teste de Wald sequencial para efeitos fixos
 
require(nlme)
 
mm0 <- lme(resp~trat, random=~1|bloc, data=bib3)
anova(mm0)
 
#------------------------------------------------------------------------------------------
# checagem da normalidade efeitos/erros aleatórios
 
par(mfrow=c(1,2))
qqnorm(residuals(mm0)); qqline(residuals(mm0))
qqnorm(unlist(ranef(mm0))); qqline(unlist(ranef(mm0)))
layout(1)
 
#------------------------------------------------------------------------------------------
# estimativa dos componetes de variância
 
VarCorr(mm0)
 
#------------------------------------------------------------------------------------------
# matriz de contraste dos tratamentos
 
contr <- mm0$contrasts$trat
idx <- grep("trat", names(fixef(mm0)))
 
#------------------------------------------------------------------------------------------
# médias ajustadas dos tratamentos
 
maju <- c(contr%*%fixef(mm0)[idx]+fixef(mm0)[1])
maju
 
#------------------------------------------------------------------------------------------
# vetor de coeficientes do contraste tr1 vs tr2 e sua estimativa
 
contr <- rep(c(0, 1, -1, 0), c(1, 1, 1, nlevels(bib3$trat)-3)); contr
contr%*%maju
 
#------------------------------------------------------------------------------------------
# variância do contraste, como tem equilibrio, todos os contrastes tem mesma variância
 
v.dif <- contr%*%vcov(mm0)%*%contr; v.dif
 
#------------------------------------------------------------------------------------------
# diferença mínima significativa pelo teste de Tukey
 
delta <- c(qtukey(0.95, nlevels(bib3$trat), anova(mm0)["trat","denDF"])*sqrt(0.5*v.dif))
delta
 
#------------------------------------------------------------------------------------------
# aplicação do teste de Tukey
 
agricolae::order.stat(levels(bib3$trat), maju, delta)
 
#------------------------------------------------------------------------------------------


Análise intrabloco e interbloco de experimento em blocos incompletos tipo II

Temporariamente sem descrição.
palavras-chave: #bloco_incompleto, #intrabloco, #interbloco, #efeito_aleatório, #Tukey, #média_ajustada.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# dados de um experimento em blocos incompletos tipo II (Pimentel Gomes p.188)
 
bib2 <- c(35,1, 28,2, 32,2, 37,3, 35,3, 25,4, 28,4, 27,5, 30,5, 32,6, 24,6, 26,7,
          31,7, 27,1, 38,1, 40,3, 36,3, 27,5, 23,5, 30,7, 28,7, 25,2, 26,2, 28,4,
          23,4, 24,6, 28,6, 33,1, 30,1, 22,4, 27,4, 34,7, 32,7, 39,3, 33,3, 24,6,
          28,6, 34,2, 29,2, 26,5, 23,5, 33,1)
bib2 <- matrix(bib2, ncol=2, byrow=TRUE)
bib2 <- as.data.frame(bib2)
bib2$grup <- gl(3,14)
bib2$bloc <- gl(7,2)
names(bib2)[1:2] <- c("resp","trat")
bib2 <- transform(bib2, trat=factor(trat), resp=resp/10)
str(bib2)
 
#------------------------------------------------------------------------------------------
# análise intrabloco
#------------------------------------------------------------------------------------------
# ajuste do modelo, anova sequencial e marginal
 
m0 <- lm(terms(resp~grup/bloc+trat, keep.order=TRUE), data=bib2,
         contrast=list(grup=contr.sum, bloc=contr.sum, trat=contr.sum))
anova(m0)
car::Anova(m0, type="III")
drop1(m0, scope=.~., test="F")
 
#------------------------------------------------------------------------------------------
# checagem das pressuposições
 
par(mfrow=c(2,2))
plot(m0)
layout(1)
 
#------------------------------------------------------------------------------------------
# médias ajustadas
 
Xtrat <- m0$contrast$trat
assi <- m0$assign
 
maju <- c(Xtrat%*%coef(m0)[assi==3]+coef(m0)[1])
maju
 
#------------------------------------------------------------------------------------------
# vetor de coeficientes do contraste tr1 vs tr2 e sua estimativa
 
contr <- rep(c(0,0,0,1,-1,0), c(1,sum(assi==1),sum(assi==2),1,1,sum(assi==3)-2)); contr
sum(contr*coef(m0))
 
#------------------------------------------------------------------------------------------
# variância do contraste, como tem equilíbrio, todos os contrastes tem mesma variância
 
v.dif <- contr%*%vcov(m0)%*%contr; v.dif
 
#------------------------------------------------------------------------------------------
# diferença mínima significativa pelo teste de Tukey
 
delta <- qtukey(0.95, nlevels(bib2$trat), df=df.residual(m0))*sqrt(0.5*v.dif); delta
 
#------------------------------------------------------------------------------------------
# aplicação do teste de Tukey
 
taju <- agricolae::order.stat(levels(bib2$trat), maju, delta)
taju
 
#------------------------------------------------------------------------------------------
# gráfico de barras com as médias
 
taju2 <- taju$means
names(taju2) <- taju$trt
 
bp <- barplot(taju2,
              xlab="Tratamentos", ylab="Variável resposta",
              ylim=c(0, 1.2*max(taju2)))
text(bp, taju2,
     labels=paste(format(taju$means,dig=2), gsub(" ","",taju$M), sep="\n"), pos=3)
mtext(3, line=2,
      text="Comparação múltipla de médias", cex=1.5)
mtext(3, line=0.5,
      text="Médias seguidas de mesma letra não diferem entre si pelo teste de Tukey (5%)")
box()
 
#------------------------------------------------------------------------------------------
# análise interbloco
#------------------------------------------------------------------------------------------
# criar o fator bloco dentro de grupo para associar efeito aleatório
 
bib2$bloc.grup <- factor(paste(bib2$grup, bib2$bloc, sep="-"))
str(bib2)
 
#------------------------------------------------------------------------------------------
# ajuste do modelo e teste de Wald sequencial para os efeitos fixos
 
require(nlme)
 
mm0 <- lme(resp~grup+trat, random=~1|bloc.grup, data=bib2,
           contrast=list(grup=contr.sum, trat=contr.sum))
anova(mm0)
 
#------------------------------------------------------------------------------------------
# checagem da normalidade efeitos/erros aleatórios
 
par(mfrow=c(1,2))
qqnorm(residuals(mm0)); qqline(residuals(mm0))
qqnorm(unlist(ranef(mm0))); qqline(unlist(ranef(mm0)))
layout(1)
 
#------------------------------------------------------------------------------------------
# estimativas dos componentes de variância
 
VarCorr(mm0)
 
#------------------------------------------------------------------------------------------
# médias ajustadas
 
Xtrat <- mm0$contrast$trat
assi <- lapply(list(grup="grup",trat="trat"), function(x){ grep(x, names(fixef(mm0))) })
 
maju <- c(Xtrat%*%fixef(mm0)[assi$trat]+fixef(mm0)[1])
maju
 
#------------------------------------------------------------------------------------------
# vetor de coeficientes do contraste tr1 vs tr2 e sua estimativa
 
contr <- rep(c(0,0,1,-1,0), c(1,length(assi$grup),1,1,length(assi$trat)-2)); contr
sum(contr*fixef(mm0))
 
#------------------------------------------------------------------------------------------
# variância do contraste, como tem equilíbrio, todos os contrastes tem mesma variância
 
v.dif <- contr%*%vcov(mm0)%*%contr; v.dif
 
#------------------------------------------------------------------------------------------
# diferença mínima significativa pelo teste de Tukey
 
delta <- qtukey(0.95, nlevels(bib2$trat), df=anova(mm0)["trat","denDF"])*sqrt(0.5*v.dif)
 
#------------------------------------------------------------------------------------------
# aplicação do teste de Tukey
 
agricolae::order.stat(levels(bib2$trat), maju, delta)
 
#------------------------------------------------------------------------------------------


Análise intrabloco e interbloco de experimento em blocos incompletos tipo I

Temporariamente sem descrição.
palavras-chave: #bloco_incompleto, #intrabloco, #interbloco, #efeito_aleatório, #Tukey, #média_ajustada.

#------------------------------------------------------------------------------------------
#                                                                                por Walmes
#------------------------------------------------------------------------------------------
# dados de um experimento em blocos incompletos tipo I (Pimentel Gomes p.185)
 
bib1 <- c(20,1,18,2,15,3,16,4,14,5,15,6,16,7,18,8,
          24,1,18,3,25,2,19,8,13,4,16,5,12,6,16,7,
          23,1,17,4,26,2,18,7,15,3,17,6,13,5,16,8,
          21,1,13,5,23,2,16,3,10,4,12,7,13,6,11,8,
          28,1,14,6,27,2,18,4,18,3,15,8,16,5,17,7,
          22,1,17,7,24,2,16,6,18,3,14,5,15,4,17,8,
          23,1,15,8,21,2,13,5,15,3,12,7,13,4,16,6)
bib1 <- matrix(bib1, ncol=2, byrow=TRUE)
bib1 <- as.data.frame(bib1)
bib1 <- cbind(rept=gl(7,8), bib1)
bib1$bloc <- gl(4,2)
names(bib1) <- c("rept","resp","trat","bloc")
bib1$trat <- factor(bib1$trat)
str(bib1)
 
#------------------------------------------------------------------------------------------
# análise intrabloco
#------------------------------------------------------------------------------------------
# ajuste do modelo, anova sequencial e marginal, só o teste F para trat é válido
 
m0 <- lm(terms(resp~rept/bloc+trat, keep.order=TRUE), data=bib1,
         contrast=list(rept=contr.sum, bloc=contr.sum, trat=contr.sum))
anova(m0)
car::Anova(m0, type="III")
drop1(m0, scope=.~., test="F")
 
#------------------------------------------------------------------------------------------
# checagem das pressuposições
 
par(mfrow=c(2,2))
plot(m0)
layout(1)
 
#------------------------------------------------------------------------------------------
# médias ajustadas
 
Xtrat <- m0$contrast$trat
assi <- m0$assign
 
maju <- c(Xtrat%*%coef(m0)[assi==3]+coef(m0)[1])
maju
 
#------------------------------------------------------------------------------------------
# vetor de coeficientes do contraste tr1 vs tr2 e sua estimativa
 
contr <- rep(c(0,0,0,1,-1,0), c(1,sum(assi==1),sum(assi==2),1,1,sum(assi==3)-2)); contr
sum(contr*coef(m0))
 
#------------------------------------------------------------------------------------------
# variância do contraste, como tem equilíbrio, todos os contrastes tem mesma variância
 
v.dif <- contr%*%vcov(m0)%*%contr; v.dif
 
#------------------------------------------------------------------------------------------
# diferença mínima significativa pelo teste de Tukey
 
delta <- qtukey(0.95, nlevels(bib1$trat), df=df.residual(m0))*sqrt(0.5*v.dif); delta
 
#------------------------------------------------------------------------------------------
# aplicação do teste de Tukey
 
taju <- agricolae::order.stat(levels(bib1$trat), maju, delta)
taju
 
#------------------------------------------------------------------------------------------
# gráfico de barras com as médias
 
taju2 <- taju$means
names(taju2) <- taju$trt
 
bp <- barplot(taju2,
              xlab="Tratamentos", ylab="Variável resposta",
              ylim=c(0, 1.2*max(taju2)))
text(bp, taju2,
     labels=paste(format(taju$means,dig=3), gsub(" ","",taju$M), sep="\n"), pos=3)
mtext(3, line=2,
      text="Comparação múltipla de médias", cex=1.5)
mtext(3, line=0.5,
      text="Médias seguidas de mesma letra não diferem entre si pelo teste de Tukey (5%)")
box()
 
#------------------------------------------------------------------------------------------
# análise interbloco
#------------------------------------------------------------------------------------------
# criar o fator bloco dentro de repetição para associar efeito aleatório
 
bib1$bloc.rept <- factor(paste(bib1$rept, bib1$bloc, sep="-"))
str(bib1)
 
#------------------------------------------------------------------------------------------
# ajuste do modelo e teste de Wald sequencial para os efeitos fixos
 
mm0 <- lme(resp~rept+trat, random=~1|bloc.rept, data=bib1,
           contrast=list(rept=contr.sum, trat=contr.sum))
anova(mm0)
 
#------------------------------------------------------------------------------------------
# checagem da normalidade efeitos/erros aleatórios
 
par(mfrow=c(1,2))
qqnorm(residuals(mm0)); qqline(residuals(mm0))
qqnorm(unlist(ranef(mm0))); qqline(unlist(ranef(mm0)))
layout(1)
 
#------------------------------------------------------------------------------------------
# estimativas dos componentes de variância
 
VarCorr(mm0)
 
#------------------------------------------------------------------------------------------
# médias ajustadas
 
Xtrat <- mm0$contrast$trat
assi <- lapply(list(rept="rept",trat="trat"), function(x){ grep(x, names(fixef(mm0))) })
 
maju <- c(Xtrat%*%fixef(mm0)[assi$trat]+fixef(mm0)[1])
maju
 
#------------------------------------------------------------------------------------------
# vetor de coeficientes do contraste tr1 vs tr2 e sua estimativa
 
contr <- rep(c(0,0,1,-1,0), c(1,length(assi$rept),1,1,length(assi$trat)-2)); contr
sum(contr*fixef(mm0))
 
#------------------------------------------------------------------------------------------
# variância do contraste, como tem equilíbrio, todos os contrastes tem mesma variância
 
v.dif <- contr%*%vcov(mm0)%*%contr; v.dif
 
#------------------------------------------------------------------------------------------
# diferença mínima significativa pelo teste de Tukey
 
delta <- qtukey(0.95, nlevels(bib1$trat), df=anova(mm0)["trat","denDF"])*sqrt(0.5*v.dif)
 
#------------------------------------------------------------------------------------------
# aplicação do teste de Tukey
 
agricolae::order.stat(levels(bib1$trat), maju, delta)
 
#------------------------------------------------------------------------------------------


Sobreposição de Gráficos Usando polygon()

O exemplo abaixo usa a função polygon() para colorir uma região da densidade normal.

palavras-chave: #graficos #sobreposicao #polygon #plot

##
## Por Benilton Carvalho
##
## Determinando os parâmetros da Normal
media <- 170
stder <- 8
 
## Criando o grid no qual deseja-se visualizar a densidade
x <- seq(media-3*stder, media+3*stder, .01)
 
## Determinando a densidade em cada ponto do grid
y <- dnorm(x, media, stder)
 
## Gráfico da densidade no grid de interesse
plot(x, y, type='l', xlab='Eixo X', ylab='Eixo Y')
abline(h=0, v=media, lty=2)
 
## Determinando o sub-grid de interesse
##   e a densidade em cada ponto da regiao
## Região inferior apenas.
hx <- seq(media-3*stder, media-2*stder, .01)
hy <- dnorm(hx, media, stder)
 
## A funcao polygon() necessita do caminho inteiro
##   da regiao a ser colorida. Então, para cada hx[i],
##   existem 2 pontos determinando o polígono: a) na
##   altura da densidade e b) em zero (para fechar o
##   polígono).
n <- length(hy)
polygon(c(hx, rev(hx)), c(hy, rep(0, n)), col=2)
 
## Repetindo para a região superior
hx <- seq(media+2*stder, media+3*stder, .01)
hy <- dnorm(hx, media, stder)
n <-
 length(hy)
polygon(c(hx, rev(hx)), c(hy, rep(0, n)), col=2)