CE 074 - Controle de Processos Industriais

http://www.leg.ufpr.br/ce074


Universidade Federal do Paraná Prof. Fernando de Pol Mayer

Curso de Graduação em Estatística Lab. de Estatística e Geoinformação - LEG

Departamento de Estatística - UFPR


Experimentos fatoriais \(2^k\)

                       |-> número de fatores
                     2^k =  número de observações (mas pode ter repetições)
  número de níveis <-|

São utilizados em fases exploratórias da região experimental pois permitem estudar com baixo custo um número grande de fatores. Isso permite selecionar os fatores de importância e indica um nova região experimental para um próximo ensaio. Decorrente do uso de apenas 2 níveis por fator, assume-se que a resposta seja aproximadamente linear ao redor dos níveis dos fatores estudados.

Nomenclatura:

  • Fatores são representados por letras maiúsculas (A, B, C…)
  • Os níveis de um fator são chamados de ALTO e BAIXO
  • Um tratamento (combinação de fatores) é identificado por letras minúsculas
  • Quando uma letra minúscula está presente é porque o fator correspondente ocorre no nível ALTO

Esquema de sinais

  • O sinal + é associado ao nível ALTO e - ao nível baixo
  • A combinação de tratamentos com ambos os niveis baixos é representado por (1)
  • Os sinais das interações são obtidos pelo produto dos sinais dos fatores envolvidos

Fatorial \(2^2\)

Representação geométrica e contrastes

[+]  b_________ab
     |         |
 B   |         |
     |         |
[-] (1)________a
    [-]   A   [+]
----------------------------------------------------
Nomenclatura      Sinais        Descrição
----------------------------------------------------
               A    B   AB
(1)            -    -   +       A e B níveis baixos
a              +    -   -       A alto e B baixo
b              -    +   -       A baixo e B alto
ab             +    +   +       A e B níveis altos
----------------------------------------------------

Os contrastes podem ser definidos como a diferença entre os níveis alto e baixo de cada fator. Dessa forma, para um fatorial \(2^2\) temos:

  • Contraste de A \[ \begin{align} \text{contr}_{A} &= (a + ab) - (b + (1)) \\ &= a + ab - b - (1) \end{align} \]
  • Contraste de B \[ \begin{align} \text{contr}_{B} &= (b + ab) - (a + (1)) \\ &= b + ab - a - (1) \end{align} \]
  • Contraste de AB \[ \begin{align} \text{contr}_{AB} &= (ab + (1)) - (a + b) \\ &= ab + (1) - a - b \end{align} \]

Note que nas interações sempre o contraste vem de um “cruzamento”. (1), a, b e ab são médias amostrais (para experimentos sem repetição), ou somatórios (para experimentos com repetições).

Modelo estatístico

O modelo mais simples de um experimento fatorial \(2^2\) é aquele que possui apenas uma observação para cada combinação dos dois fatores envolvidos, ou seja, não existem repetições, e o experimento possui apenas 4 observações. Nesse caso o modelo é

\[ y_{ij} = \mu + \alpha_i + \beta_j + \gamma_{ij} + \epsilon_{ij} \]

onde \(\mu\) é a média geral do experimento, \(\alpha_{i}\) é o efeito do \(i\)-ésimo nível do fator A, \(\beta_{j}\) é o efeito do \(j\)-ésimo nível do fator B, \(\gamma_{ij}\) é o efeito da interação entre A e B, e \(\epsilon_{ij}\) é o erro aleatório. Nesse caso particular de um experimento \(2^2\), temos \(i = 1, \ldots, a\), e \(j = 1, \ldots, b\), onde \(a = b = 2\).

Se o experimento possui mais de uma observação por combinação dos fatores A e B, então dizemos que o experimento possui \(n\) réplicas ou repetições. Nesse caso, uma observação na {ij}-ésima célula para a \(k\)-ésima repetição é denotada por \(y_{ijk}\), e o modelo fica

\[ y_{ijk} = \mu + \alpha_i + \beta_j + \gamma_{ij} + \epsilon_{ijk} \]

com \(k = 1, \ldots, n\) representando as repetições. Dessa forma, o número total de observações do experimento será \(N = abn\).

ANOVA para um experimento fatorial \(2^k\)

Em um experimento fatorial, estamos interessados em testar as hipóteses de nenhum efeito principal para o fator A, nenhum efeito principal para o fator B, e nenhum efeito da interação entre A e B.

\[ \begin{align} \text{H}_0 &: \alpha_1 = \cdots = \alpha_a = 0 \\ \text{H}_1 &: \text{pelo menos um}\ \alpha_i \neq 0 \\ \end{align} \]

\[ \begin{align} \text{H}_0 &: \beta_1 = \cdots = \beta_b = 0 \\ \text{H}_1 &: \text{pelo menos um}\ \beta_j \neq 0 \\ \end{align} \]

\[ \begin{align} \text{H}_0 &: \gamma_{11} = \cdots = \gamma_{ab} = 0 \\ \text{H}_1 &: \text{pelo menos um}\ \gamma_{ij} \neq 0 \\ \end{align} \]

Para testar estas hipóteses, utilizamos a Análise de Variância (ANOVA), através da mesma ideia da ANOVA para o caso de apenas um fator.

A ANOVA testa estas hipóteses pela decomposição da variabilidade total dos dados em componentes devido aos fatores e devido aos desvios aleatórios, ou seja,

\[ \begin{align} \text{SQTot} &= \text{SQTrat} + \text{SQRes} \\ &= \text{SQA} + \text{SQB} + \text{SQAB} + \text{SQRes} \end{align} \]

Pode-se mostrar que a soma de quadrados para qualquer fator é

\[ \text{SQ} = \frac{\text{contr}^2}{n 2^k} \]

A soma de quadrados total é a diferença

\[ \text{SQTot} = \sum_{i=1}^{a}\sum_{j=1}^{b}\sum_{k=1}^{n} y_{ijk}^2 - \frac{y_{...}^2}{N} \]

onde \(y_{...}\) representa o somatório total das observações do experimento, \(\sum_{i=1}^{a}\sum_{j=1}^{b}\sum_{k=1}^{n} y_{ijk}\).

A \(\text{SQRes}\) é obtida pela diferença

\[ \text{SQRes} = \text{SQTot} - \text{SQA} - \text{SQB} - \text{SQAB} \]

Os graus de liberdade associados à soma de quadrados podem ser decompostos em

\[ \begin{align} \text{SQTot} &= \text{SQA} + \text{SQB} + \text{SQAB} + \text{SQRes} \\ abn - 1 &= (a-1) + (b-1) + (a-1)(b-1) + ab(n-1) \end{align} \]

Se dividirmos cada uma das somas quadráticas pelo número correspondente de graus de liberdade, obtemos as médias quadráticas para A, B, a interação e o erro:

\[ \text{MQA} = \frac{\text{SQA}}{a-1} \qquad \text{MQB} = \frac{\text{SQA}}{b-1} \qquad \text{MQAB} = \frac{\text{SQAB}}{(a-1)(b-1)} \qquad \text{MQRes} = \frac{\text{SQRes}}{ab(n-1)} \]

Para testar as hipóteses da ANOVA, calculamos a estatística \(F\) para os tratamentos A, B, e a interação AB:

\[ F_A = \frac{MQA}{MQRes} \qquad F_B = \frac{MQB}{MQRes} \qquad F_AB = \frac{MQAB}{MQRes} \]

que possuem distribuição \(F\) com graus de liberdade dados pelos graus de liberdade das médias quadráticas do numerador e do denominador.

Geralmente na ANOVA fatorial, a interação é analisada por primeiro. Caso a interação seja significativa, então os efeitos principais (que podem ou não ser também significativos) não possuem muito valor prático, pois não faz sentido analisar os efeitos isoladamente quando eles dependem entre si. Caso a interação não seja significativa, ela pode ser retirada do modelo e a interpretação sobre os efeitos principais é direta.

A tabela abaixo resume o quadro de ANOVA para um experimento fatorial \(2^k\).

Fonte de Variação Soma de Quadrados Graus de Liberdade Média Quadrática F
A \(SQA\) \(a-1\) \(\text{MQA} =\frac{\text{SQA}}{a-1}\) \(\frac{MQA}{MQRes}\)
B \(SQB\) \(b-1\) \(\text{MQB} =\frac{\text{SQB}}{b-1}\) \(\frac{MQB}{MQRes}\)
AB \(SQAB\) \((a-1)(b-1)\) \(\text{MQAB} =\frac{\text{SQAB}}{(a-1)(b-1)}\) \(\frac{MQAB}{MQRes}\)
Resíduo \(SQRes\) \(ab(n-1)\) \(\text{MQRes} =\frac{\text{SQRes}}{ab(n-1)}\)
Total \(SQTot\) \(abn - 1\)

Estimação e inferência dos efeitos

Esses experimentos em geral satisfazem as condições regulares (fatores ortogonais e balanceamento) e nesse caso as médias amostrais podem ser usadas para estimar os efeitos dos fatores. Isso facilita a execução da análise que pode ser feita no local do experimento com lápis e papel, outro experimento pode ser realizado em seguida a partir das conclusões tiradas.

Os efeitos são contrastes entre médias (idênticos ao contraste soma zero na notação matricial). Por exemplo, os efeitos principais de um fator correspondem às diferenças entre as médias das combinações do nível alto contra às do nível baixo. Como existem \(n 2^{k-1}\) observações para cada combinação dos fatores, então, para qualquer experimento \(2^k\), as estimativas dos efeitos podem ser calculadas como

  • Efeito de A \[ \begin{align} \text{ef}_{A} &= \bar{y}_{A+} - \bar{y}_{A-} \\ \\ &= \frac{\text{contr}_{A}}{n 2^{k-1}} \\ \\ &= \frac{a + ab - b - (1)}{n 2^{k-1}} \end{align} \]
  • Efeito de B \[ \begin{align} \text{ef}_{B} &= \bar{y}_{B+} - \bar{y}_{B-} \\ \\ &= \frac{\text{contr}_{B}}{n 2^{k-1}} \\ \\ &= \frac{b + ab - a - (1)}{n 2^{k-1}} \end{align} \]
  • Efeito de AB \[ \begin{align} \text{ef}_{AB} &= \frac{\text{contr}_{AB}}{n 2^{k-1}} \\ \\ &= \frac{ab + (1) - a - b}{n 2^{k-1}} \end{align} \]

Em experimentos fatoriais \(2^2\) (\(k = 2\)), qualquer efeito é calculado de forma simplificada por

\[ \begin{align} \text{ef} &= \bar{y}_{+} - \bar{y}_{-} \\ \\ &=\frac{\text{contr}}{n 2} \end{align} \]

E no caso ainda mais particular de um experimento fatorial \(2^2\) sem repetição (\(n = 1\)), o efeito é simplesmente a média da diferença entre duas médias (contraste):

\[ \begin{align} \text{ef} &= \bar{y}_{+} - \bar{y}_{-} \\ \\ &= \frac{\text{contr}}{2} \end{align} \]

Note que um efeito é uma medida baseada na variação de duas unidades, pois medimos a variação entre o nível alto (+1) e baixo (-1). Como estamos interessados em fazer inferência sob os parâmetros do modelo de regressão

\[ y_{ijk} = \mu + \alpha_i + \beta_j + \gamma_{ij} + \epsilon_{ijk} \]

então calculamos os coeficientes (os parâmetros do modelo) dividindo as estimativas de efeito por dois, visto que os coeficientes de uma regressão medem, por definição, a variação de uma unidade de \(X\) (variáveis explicativas) sobre a média da variável resposta (\(Y\)).

Dessa forma, o cálculo dos coeficientes (\(\hat{\beta}\)) do modelo acima para qualquer tratamento será

\[ \hat{\beta} = \frac{\text{efeito}}{2} \]

Um coeficiete relaciona o fator à resposta, e o interesse está em saber se a estimativa do coeficiente é ou não diferente de zero. Um teste t pode ser usado para se avaliar a significância de um efeito.

Cada estimativa de efeito é a diferença entre duas médias (\(\bar{y}_{+} - \bar{y}_{-}\)). Em um experimento \(2^k\) com \(n\) réplicas, metade das observações aparece em cada média, de forma que existem \(n2^k\) observações em cada média.

O erro-padrão de um coeficiente é a metade do erro-padrão de um efeito. Se um efeito é uma diferença entre médias, então o erro-padrão de um coeficiente é

\[ \begin{align} \text{EP}(\hat\beta) &= \frac{\hat\sigma}{2} \sqrt{\frac{1}{n2^{k-1}} + \frac{1}{n2^{k-1}}} \\ \\ &= \hat\sigma \sqrt{\frac{1}{n2^{k}}} \end{align} \]

onde \(\hat\sigma\) é estimado a partir da raiz quadrada da média quadrática do erro (\(\text{MQRes}\)), lembrando do fato que, sob \(\text{H}_0\), \(\text{E}(\text{MQRes}) = \sigma^2\).

A estatística t para testar \(\text{H}_0: \beta = 0\) em um experimento 2^k é então,

\[ t = \frac{\hat\beta}{\text{EP}(\hat\beta)} \]

com graus de liberdade iguais aos da média quadrática do erro (\(ab(n-1\))).

Exemplos

Veja as análises completas do experimento realizado em sala (bolhas) no script 06.