Escolar Documentos
Profissional Documentos
Cultura Documentos
ESTATÍSTICA
APLICADA À
QUÍMICA ANALÍTICA
ELABORADO POR
1996
ÍNDICE
1. INTRODUÇÃO 3
2. CONCEITOS BÁSICOS
2.1. Precisão e exactidão 4
2.2. Tipos de erros 5
2.3. Outras terminologias ligadas à precisão 7
2.4. Distribuição normal 7
2.5. Áreas sob a curva normal 8
2.6. Amostras estatísticas e amostras aleatórias 10
2.7. Graus de liberdade 10
2.8. Intervalos de confiança da média 11
2.9. Distribuição t de “student” 12
3. TESTES DE SIGNIFICÂNCIA
3.1. Introdução 12
3.2. Hipótese nula 13
3.3. Hipótese alternativa 14
3.4. Teste-t de comparação de uma média experimental com um valor conhecido 14
3.5. Teste bilateral e unilateral 16
3.6. Teste de comparação de 2 médias de 2 amostras com a mesma variância 18
3.7. Teste-F 20
3.8. Teste de comparação de 2 médias de 2 amostras com variâncias desiguais 22
3.9. Teste-t emparelhado 24
7. DESENHO DE EXPERIÊNCIAS
7.1. Importância do desenho experimental 70
7.2. Desenho factorial 71
7.3. Desenho factorial e optimização 73
8. BIBLIOGRAFIA 76
1
a intersecção
b declive (linha de regressão)
c no. de colunas (ANOVA bimodal)
C termo de correcção (ANOVA bimodal)
CV coeficiente de variação
CFC curva de frequência cumulativa
di desvio individual da média
eb erro acidental do branco
ep erro acidental do padrão
F Fischer
G Grubb
H0 hipótese nula
HA hipótese alternativa
k réplica (ANOVA bimodal)
K-S Kolmogorov-Smirnov
LD limite de detecção
MDA mediana da diferença absoluta
MS quadrado médio
n no. de medições
N no. total de medições (ANOVA)
P probabilidade
Q Dixon
r coeficiente de correlação momento-produto
r no. de filas (ANOVA bimodal)
R2 coeficiente de determinação ou coeficiente de correlação múltipla
s desvio-padrão da amostra
s2 variância da amostra
sa desvio-padrão da intersecção
sb desvio-padrão do declive
sB desvio-padrão do branco
se erro-padrão
sp desvio-padrão ajustado
sxA desvio-padrão de xA
sxe desvio-padrão de xe
sy/x desvio-padrão dos resíduos
SS soma de quadrados
t grandeza student
1T teste unilateral
2T teste bilateral
T grande total (ANOVA)
Tn teste ASTM
wi peso (regressão pesada)
x variável independente
xA concentração obtida por interpolação
2
1. INTRODUÇÃO
O resultado de uma análise nunca é, pois, totalmente correcto. Existe sempre uma diferença entre
o valor obtido e o valor verdadeiro e ela é proveniente de erros que se comete durante a análise.
Então é importante saber até que nível é que se pode confiar no resultado.
O objectivo de uma determinação é obter uma estimativa válida do valor verdadeiro.
Nenhum resultado quantitativo tem valor se não for acompanhado de uma estimativa do
erro a ele inerente.
Suponhamos que um químico sintetiza uma substância que pensa ser totalmente nova. Estuda as
suas propriedades e, para uma delas, aplicando um certo método, obtém o valor 50. Consultando
a literatura, constata que não existe, para tal propriedade, um valor superior a 46. Será que
preparou uma substância nova ?
A resposta está ligada ao grau de confiança no resultado.
Se o resultado cai dentro de 2 unidades de grandeza (arbitrária), 50+2, então ele terá realmente
encontrado uma substância nova.
Se o erro for até 5 ou 10 unidades , 50+5 ou 50+10, então provàvelmente não há nada de novo a
apresentar.
Outras questões que ilustram o tipo de problemas de natureza estatística que surgem :
- Numa titulação, obtiveram-se os seguintes valores para o volume do titulante :
18.51 ; 18.23 ; 18.45 ; 18.55 ; 19.25
O último valor parece ser bem diferente dos restantes. Pode-se então colocar a seguinte
pergunta : esse valor deve ser rejeitado ?
2. CONCEITOS BÁSICOS
Suponhamos que se pretende determinar o teor de Cu numa liga de Cu-Zn. Para escolher, entre
os diferentes métodos descritos na literatura, um que dê bons resultados para este tipo de liga,
ensaiamos alguns métodos (que designamos por A, B e C) sobre uma liga semelhante cujo teor
de Cu é conhecido e igual a, p.ex., 30.00%. Cada análise é repetida várias vezes e os resultados
são apresentados na tabela seguinte :
- O método A apresenta uma média coincidente com o valor certificado. Dizemos que a
exactidão do método é boa.
No entanto, há resultados individuais que se desviam razoàvelmente do valor médio ;
quer dizer, existe uma grande dispersão nos resultados individuais. Dizemos que a
precisão do método não é boa.
- O método B tem uma média que se afasta do valor 30.00 e, portanto, a sua exactidão não
é boa.
Contudo, a dispersão dos resultados não é grande. Dizemos que a precisão da análise é
boa.
- O valor 22.40 no método C é muito diferente dos restantes o que leva a pensar que deverá
resultar de um engano de cálculo, de um erro na leitura da balança, de perda de material
durante a análise, ou de qualquer outro erro cometido por negligência. Então, esse valor
não tem significado e, consequentemente, é rejeitado ; não entra no cálculo da média.
A dispersão nos outros resultados não é grande e, por isso, a precisão é boa.
A média é próxima do valor certificado pelo que dizemos que o método apresenta boa
exactidão.
Esquematizando,
5
amostra % Cu di = x i − x
x1 28.30 1.72
x2 30.10 0.08
x3 32.00 1.98
x4 29.60 0.42
x5 30.10 0.08
x =30.02 d =0.86
Exactidão :
Erro absoluto : 30.02 – 30.00 = +0.02 %
0.02
Erro relativo : + x100 = +0.07 % ou seja, da ordem de 0.1 %
30.00
- grosseiros
- sistemáticos ou determinados (“systematic” ou “determinate”)
- acidentais ou indeterminados (“random” ou “indeterminate”)
Erros grosseiros :
Podem ser definidos como erros que são tão sérios que não há outra alternativa senão abandonar
o ensaio e recomeçar. Estes erros são fàcilmente reconhecidos.
Ex.: perda acidental da amostra, uso de um reagente contaminado (que se descobre a meio de um
ensaio), uso de uma escala errada, mau funcionamento do aparelho, etc.
Erros sistemáticos :
São erros que fazem com que os resultados se desviem do valor verdadeiro no mesmo sentido,
i.é, numa série de repetições, todos os resultados ou são mais altos ou mais baixos que o valor
certo. Portanto, os desvios da média, são persistentemente positivos ou negativos.
Este tipo de erros afectam a exactidão. Esta nunca pode ser completamente conhecida porque o
valor verdadeiro nunca pode ser exactamente determinado, devendo-se, em seu lugar, usar um
valor aceite.
Os erros sistemáticos têm origem definida e podem, em princípio, ser identificados. É, pois,
possível prevê-los e eliminá-los.
São exemplos de erros sistemáticos : o precipitado obtido decompõe-se ou volatiliza-se durante
a calcinação ; impurezas nos reagentes ; má calibração do equipamento ; não deixar arrefecer o
cadinho antes da pesagem ; não deixar tempo suficiente para escoar o líquido da pipeta ;
interferência provocada por um componente que reage da mesma maneira que o anólito.
Usa-se muitas vezes o termo “bias” para descrever o erro sistemático.
Erros acidentais :
São erros que fazem com que os resultados individuais caiam num e noutro lado do valor médio.
Surgem quando se efectuam medições repetidas de uma certa grandeza e, por isso, afectam a
precisão dos resultados.
Estão relacionados com os limites de sensibilidade dos instrumentos ou dos nossos sentidos.
Nunca podem ser eliminados, embora possam ser minimizados se trabalharmos com cuidado
suficiente e repetirmos as medições.
A repetição de análises não permite a identificação de erros sistemáticos pois podemos estar a
cometer sempre o mesmo erro em todas as determinações e obter valores concordantes. Uma
prática seguida para detectar erros sistemáticos consiste em aplicar o método usado em materiais
de referência e depois tratar os resultados com a ajuda de testes de significância.
valor
certo
7
Repetibilidade :
proximidade de concordância entre resultados obtidos com o mesmo método, mesmo material de
análise e sob condições idênticas (mesmo operador, mesmo aparelho, mesmo material de
laboratório, mesmas condições de temperatura e humidade, mesmo tempo, etc.).
Reprodutibilidade :
proximidade de concordância entre resultados obtidos com o mesmo método, mesmo material de
análise mas sob condições diferentes (operador diferente, aparelho diferente, material de
laboratório diferente, condições diferentes de temperatura e humidade, tempo diferente, etc.).
Variabilidade analítica e dispersão (“ scatter”) – são termos por vezes também usados para se
referir à precisão.
Há autores que preferem o termo imprecisão à precisão para evitar a questão linguística de que
um procedimento é tanto mais preciso quanto a sua medida de precisão, em termos numéricos,
for menor.
Os termos apresentados neste item não são normalmente usados pelos estatísticos e, por isso, não
devem ser usados pelos químicos para exprimir a precisão excepto quando não se pretende
atribuir-lhes nenhum significado estatístico específico.
A avaliação dos erros acidentais, que aparecem simplesmente por medições repetidas, é feita por
meio de testes estatísticos (por conveniência , admite-se que os erros sistemáticos estão ausentes
já que eles podem ser identificados e eliminados).
O modelo matemático geralmente usado para mostrar a distribuição dos dados é a curva ou
distribuição normal, também conhecida por curva ou distribuição de Gauss cujo aspecto é :
y
ou f(x)
µ-σ µ µ+σ x
8
1
.e −( x − µ )
2
2σ 2
y=
σ 2π
∑ (x − µ)
2
i
O desvio-padrão (“standard deviation”) é dado por σ= i
, sendo xi as medições
n
individuais e n o número de medições.
Interessa reter algumas propriedades gerais da curva normal:
- o desvio zero da média ocorre com frequência máxima
- a curva é simétrica em relação a µ (há uma distribuição simétrica de desvios positivos e
negativos em torno deste valor)
- observa-se um decréscimo exponencial na frequência à medida que a grandeza dos
desvios aumenta (quer dizer, há mais incertezas pequenas do que grandes)
- o valor de σ determina a largura da curva
Qualquer variação na média implica deslocar toda a distribuição ao longo do eixo dos x.
Qualquer mudança no σ vai afectar a dispersão da distribuição. Quanto < σ , < a dispersão, i.é,
uma distribuição normal com um σ grande parece uma curva larga, enquanto que com um σ
pequeno parece estreita e ponteaguda.
y
ou f(x)
2σ σ µ x
A área sob a curva normal pode ser dividida em áreas definidas pela média e pelo desvio-padrão.
y
ou f(x)
As áreas sob a curva podem ser interpretadas como pacotes de observações que caem dentro de
intervalos definidos.
y
ou f(x)
a) área dentro da zona µ + kσ
///// b) área fora da zona µ + kσ
<µ-kσ µ >µ+kσ x
y
ou f(x)
a)
b) ////
µ >µ+kσ x
Em estatística designa-se por população o conjunto de medições possíveis e por amostra, que
constitui parte da população, a sua estimativa.
A população é assim estudada com base em amostras tomadas de modo aleatório. A amostra
aleatória, que deve ser representativa da população estudada, é então usada para verificar
hipóteses sobre a população (testes estatísticos) ou para estimar parâmetros da população (média,
variância, etc.).
Uma amostra aleatória é aquela em que cada membro da população tem igual probabilidade de
ser seleccionado.
Amostras aleatórias “pequenas” retiradas de uma população normal podem ter uma distribuição
não normal.
y 10 y 10
5 5
0 0
x x
µ é estimado a partir de x = ∑ xi n
i
∑ (x − x)
2
i
σ é estimado a partir de s = i
n −1
Porém, ao calcular-se a média, usa-se um grau de liberdade, deixando apenas (n-1) graus de
liberdade para os resíduos ( xi - x ) para calcular o desvio-padrão.
Considere uma amostra com 2 observações : 18 e 12. A média da amostra é 15 e os resíduos são
3 e –3. Como os resíduos devem somar zero, se o primeiro resíduo é livre, o segundo é
estritamente determinado, portanto, há apenas um grau de liberdade.
Nalgumas áreas da estatística, onde mais de um parâmetro é estimado, p.ex. na regressão, o
número de graus de liberdade é < n-1.
Como já foi referido, o valor µ para uma populacão de dados nunca pode ser exactamente
determinado porque, para isso, teríamos que efectuar um número infinito de medições.
É então útil considerar uma zona de valores dentro da qual se pensa que µ vai cair.
Por outras palavras, pode-se definir o intervalo de confiança ou os limites de confiança para a
média de n resultados ou para µ.
O termo confiança implica que podemos afirmar, com um certo grau de certeza, i.é, com uma
certa probabilidade, que o intervalo de confiança inclui o valor verdadeiro ; quanto maior a
certeza, maior o intervalo requerido.
y
ou f(x)
n : tamanho da amostra
µ-1.96σ/ n µ µ+1.96σ/ n x
x cairá nesta zona
95 vezes em 100
Para uma distribuição normal, pode-se dizer que 95 vezes em 100 (P=0,95), a média estimada
cairá numa zona específica em torno da média da população.
Esta zona é + 1,96σ / n .
Podem ser definidos outros intervalos de confiança usando valores diferentes de 1,96.
Estes valores podem ser obtidos a partir de uma tabela de pontos de probabilidade da distribuição
normal.
12
Por exemplo, 1,64 para um nível de confiança de 90% e 2,58 para 99%. Assim, 90% das médias
da amostra cairão na zona dada por
x -1.64σ / n < µ < x +1.64σ / n
Para amostras grandes (digamos, n>30), s dá uma estimativa suficientemente exacta de σ. Para
amostras pequenas, a incerteza introduzida usando s aumenta, pelo que que se deve usar a
equação modificada atrás indicada para calcular os limites de confiança.
3. TESTES DE SIGNIFICÂNCIA
3.1. INTRODUÇÃO
x
↓↓↓↓↓ ↓↓↓↓ ↓↓↓↓ ↓ .
desvio
estimado xt xt
caso 1 caso 2
Do esquema acima representado, é possível que no caso 1 a diferença entre os 2 valores seja
devido a erros aleatórios, mas é muito pouco provável que o mesmo se passe no caso 2.
Os testes de significância são largamente usados na interpretação de resultados experimentais e
na avaliação de dados analíticos. Todos eles seguem o mesmo procedimento geral.
13
Etapa 2 Ver o que acontece a uma amostra de observações de tamanho n, tomada ao acaso, a
partir de uma distribuição normal.
Podem ser seguidas 3 vias :
ts ts x − xt
x- < xt < x + ou tcrít > ou P > 0.05
n n s n
Se se aceita a H0, não se prova que ela é verdadeira, apenas não se demonstra ser falsa.
Se os dados experimentais não estão conforme as nossas expectativas de admitir como válida a
H0 ,
dizemos: rejeita-se a H0
há evidência de desvio significativo
mas não podemos dizer : há desvio (há uma probabilidade de 5% de rejeitar a H0 quando ela é
verdadeira)
Se tcalc > tcrít, a H0 é rejeitada,ou seja, a diferença entre a média e o valor aceite é consequência de
um erro determinado, i.é, há evidência de existir um erro sistemático.
Exemplos de aplicação :
- Se xt é conhecido, então podemos testar se há desvio e se ele é significativo.
P.ex., se usarmos um analisador elemental para determinar C em amostras de colesterol puro,
podemos testar a eficiência desse instrumento.
- Se admitirmos que um certo método usado não apresenta desvio, então podemos estimar xt.
P.ex., se determinarmos o teor de Cu em CuSO4, pode-se dizer se o resultado obtido é ou não
significativamente diferente do valor calculado e assim concluir se o material analisado é ou
não puro (i.é, o valor determinado experimentalmente é significativamente diferente do valor
calculado?)
15
Podemos não detectar qualquer desvio significativo num método até ser melhorado.
P=0.95
/// P=0.05 xt Método original
o desvio é grande mas não significativo porque a
precisão é pobre
Método melhorado
a precisão é melhor e o desvio menor, mas agora o
desvio é significativo
Pretende-se testar a pureza de um lote de CaCO3 por determinações repetidas de Ca. O teor de
Ca do lote é significativamente diferente do valor no CaCO3 puro (40.04% p/p) ?
Result. exper. pa. Ca Dados estatísticos
39.96 x = 40.14
40.22 s=0.237
40.22 ν =5
39.77 P=0.348
40.44
40.23
Neste exemplo temos uma concentração a testar e admitimos um método sem desvio.
Consideremos as hipóteses nula e alternativa :
H0 : µ = 40.04
HA : µ ≠ 40.04
Método 1
t crít (P=0.05, 2T, ν=5) = 2.57 e x = 40.04
os limites de confiança a 95% para x são : xt ± ts n
2.57 x0.237
40.04 ±
6
39.79 < x < 40.28
Conclusões :
Não podemos rejeitar a H0.
Os dados dizem que não há evidência de impurezas no CaCO3.
16
Método 2
x − xt
Usando a fórmula tcalc =
s n
40.14 − 40.04
= = 1.03
0.237 6
Comparamos tcalc com tcrít
t(P=0.05,2T, ν =5) = 2.57
tcalc = 1.03
Conclusão :
Não podemos rejeitar a H0.
Os métodos atrás descritos testavam a diferença entre 2 médias em qualquer sentido. Quer dizer,
pretendia-se saber se havia ou não diferença significativa entre o resultado experimental e o valor
aceite do material de referência, independentemente do sinal da diferença.
Geralmente, o analista não tem uma ideia préconcebida de se essa diferença é positiva ou
negativa.
O teste aplicado é bilateral (“two-sided” ou “two-tailed”). Simbòlicamente representa-se por 2T.
H0 : µ= xL xlimite
HA : µ < xL limite inferior
ou HA : µ > xL limite superior
µ = xL xL + 1.65 σ n
i.e.,
⎛ ts ⎞ ⎛ ts ⎞
P ⎜⎜ x < x L + ⎟⎟ = 0.95 ou P ⎜⎜ x L > x − ⎟⎟ = 0.95
⎝ n⎠ ⎝ n⎠
Se
ts
xL < x − ou tobs > tcrít rejeita-se a H0 : µ = xL
n
e aceita-se a HA : µ > xL
Neste caso não queremos saber se há alguma diferença significativa entre os resultados das
análises e o limite fixado mas se os resultados são significativamente maiores que o limite !
Como habitualmente, estabelecemos as hipóteses
H0 : µ = 1
HA : µ >1
Usando a fórmula
n
tcalc = ( x -xL)
s
4
tcalc = (1.11 – 1) tcrít (P=0.05, 1T, ν =3) = 2.35
0.0826
=2.663
tcalc > tcrít ⇒ Rejeita-se H0
Aceita-se HA
18
i.e., com 95% de confiança, podemos dizer que o teor de Se na amostra de Cu está acima do
máximo requerido de 1 ppm.
Se tivesse usado um teste bilateral para este exemplo, os resultados teriam sido totalmente
diferentes.
Neste caso, os limites de confiança para xL são :
ts
xL +
n
com um valor de tcrít (P=0.05,2T, ν =3) = 3.18
0.976 < xL < 1.239
Como a média de 1.11 da nossa amostra cai neste intervalo, para um teste bilateral, é aceite a H0
de que a quantidade de Se não é significativamente diferente do limite de 1 ppm.
É, portanto, uma resposta diferente para uma questão diferente.
É importante que saibamos ser capazes de reconhecer quando se usa um teste uni- ou
bilateral.
Procedimento a seguir :
var( x A ) var( x B )
= +
nA nB
σ A2 σ B2 ⎛ 1 1 ⎞
= + = σ 2 ⎜⎜ + ⎟⎟
nA nB ⎝ n A nB ⎠
então
1 1
se (x A − x B ) = sp +
nA nB
em que
sp = “pooled s.d.” =
(n A − 1)s A 2 + (n B − 1)s B 2
n A + nB − 2
obtém-se então
x A − xB n A .n B
tcalc =
sp n A + nB
ou testar se
tcrít > tcalc para ν=nA+nB-2
sp =
(n A − 1)s A 2 + (n B − 1)s B 2
n A + nB − 2
=
(8 − 1)0.0378 + (8 − 1)0.042
8+8−2
= 0.039 = 0.199
1.934 − 2.129 8 x8
tcalc= = 1.970
0.199 8+8
Conclusões :
Como tobs < tcrít, não podemos rejeitar a H0.
Podemos dizer que, a um nível de confiança de 95%, não podemos detectar qualquer desvio
significativo entre os métodos.
Recorde-se de que este teste depende da hipótese σA2 = σB2. Como isto não foi testado não
podemos ter a certeza de que as nossas hipóteses são válidas.
3.7. TESTE-F
Além de testar diferenças entre médias para detectar erros sistemáticos, é também importante
comparar métodos no que respeita a erros acidentais.
O valor crítico de F depende de ν (νA = nA-1, νB= nB-1), do nível de significância e do tipo de
teste.
H0 : σA2 = σB2
⎪ 95% ⎪ 5%
FνΑ,νΒ
Exemplo de um teste-F :
Usemos os mesmos dados do exemplo anterior. Já tínhamos concluído de que não havia
evidência de desvio significativo entre os 2 laboratórios.
Para validar a nossa conclusão temos que testar se há diferença significativa entre as variâncias
dos resultados dos 2 laboratórios (Recorde-se de que, no exemplo anterior, a validade dos nossos
resultados dependia de haver ou não diferença significativa entre as variâncias).
H0 : σA2 = σB2
HA : σB2 ≠ σB2
Calcula-se então a razão das variâncias das 2 amostras e compara-se o resultado com o valor
crítico de F.
2
sA
F= 2
sB
0.04152
= =1.1002 F7,7 = 3.79
0.03774
y↑ População
Amostra
xA xB x→
⎢ ⎥
Há diferença significativa ?
2 2
sA s
neste caso se (x A − x B ) = + B
nA nB
⎧⎡ ⎛ s A2 sB 2 ⎞
2
⎤ ⎫
⎪⎢ ⎜ ⎟ ⎥ ⎪
⎪⎪⎢ ⎜n + n ⎟ ⎥ ⎪⎪
ν ajustado = inteiro ⎨⎢ ⎝ A B ⎠
⎥ − 2⎬
( 2
⎪⎢ s A n A ) (
2 2
s B nB
2
) ⎥ ⎪
⎪⎢ n + 1 + n + 1 ⎥ ⎪
⎪⎩⎣ A B ⎦ ⎪⎭
Exemplo :
Fez-se um teste rápido de fenilalanina no sangue, sendo a sua validade comparada com um
método de referência. Os resultados obtidos são indicados na tabela que se segue :
23
Fenilalanina (µmol/l)
Mét. refa. 195 ; 201 ; 201 ; 200 ; 202 ; 206 ; 203 ; 201 ; 197 ; 199 ν =9
(A) x A = 200.5
sA = 3.06
Mét. teste 219 ; 270 ; 259 ; 266 ; 238 ; 258 ; 301 ; 262 ; 296 ; 257 ; ν = 14
(B) 272 ; 207 ; 301 ; 294 ; 240 x B = 262.67
sB = 28.51
Estabelecemos H0 e HA :
H0 : µA =µB
HA : µA ≠µB
Normalmente faz-se o teste-F para ver se há qualquer diferença significativa entre as variâncias.
Porém, neste exemplo, òbviamente que as variâncias diferem, não sendo pois necessário efectuar
o teste (o valor de F seria 86.8).
⎛ 3038.975 ⎞
= int ⎜ − 2 ⎟ = int (14.55) = 15
⎝ 183.6 ⎠
tcrít (P=0.05 , 2T , 15) = 2.13
24
Devemos rejeitar a H0 e aceitar a HA, i.e., com 95% de confiança, podemos dizer que a média do
método-teste é diferente da média do método de referência ou, a um nível de confiança de 95%,
detectamos um desvio entre os métodos.
Muitas vezes é necessário comparar dois métodos de análise usando vários materiais diferentes
que contêm concentrações diferentes do anólito.
Nesses casos, a comparação das médias e variâncias dos dois conjuntos de dados fornecidos
pelos dois métodos através dos testes de significância atrás descritos seria inapropriada para
testar qualquer desvio entre os métodos. Isto porque qualquer diferença ou desvio entre os
métodos seria provàvelmente encoberto pelas diferenças entre os níveis de concentração do
anólito, i.e., pela variabilidade real das concentrações.
Para ultrapassar este problema, efectua-se simplesmente o teste da diferença entre cada par de
valores, já que as medições estão emparelhadas, i.e., para cada método há uma medição sobre
cada material.
(i) Para testar um desvio entre 2 métodos analíticos quando se analisa materiais diferentes
por ambos os métodos
ii) Para testar algum desvio entre 2 métodos analíticos quando se analisa 1 material em
vários laboratórios por ambos os métodos
Se não houver desvio, então a diferença expectável entre os resultados obtidos pelos 2
métodos é zero, i.e., a estimativa de (xi - yi) = 0.
Então,
H0 : µdif = 0 (µdif é a média da população constituída pelos valores da diferença)
Não podemos estimar ou comparar as precisões dos 2 métodos porque só há uma observação
para cada amostra.
Podemos, contudo, estimar o desvio-padrão dos resultados indicados na coluna da diferença.
O teste-t emparelhado admite que quaisquer erros , acidentais ou sistemáticos, são independentes
da concentração. Se os 2 métodos a comparar são aplicados a amostras cuja zona de
concentrações é muito larga, digamos, concentrações que variam de potências de 10, então essa
hipótese já não é válida e a comparação deve ser efectuada usando o método da regressão.
Exemplo 1:
x dif = 0.00121
s dif = 0.00104
ν =7
P = 0.013
0.00121
tobs = 8
0.00104
= 3.294
Podemos dizer com 95% de confiança que o teor de CO2 na atmosfera é significativamente
maior no inverno do que no verão.
Nota : Usamos o teste-t emparelhado porque esperamos que os níveis de CO2 sejam diferentes
em áreas rurais e urbanas.
H0 : µdif = 0
HA : µdif > 0
Usando o teste-t de 2 amostras (comparação de 2 médias), o valor de t seria 1.006 com ν =14.
tcrít (P=0.05, 1T, ν =14) = 1.761
Exemplo 2 :
Analisou-se Be em amostras de 12 rochas por dois laboratórios. Um laboratório usa AAS e outro
ICP. Há algum desvio entre os laboratórios ?
27
Be (ppm)
o
N. AAS ICP diferença
1 1.56 1.50 0.06
2 2.31 2.30 0.01
3 1.85 2.00 -0.15
4 0.52 0.50 0.02
5 2.35 2.30 0.05
6 1.80 1.70 0.10
7 2.14 1.90 0.24
8 1.01 0.90 0.11
9 2.19 2.30 -0.11
10 2.68 2.70 -0.02
11 2.71 2.80 -0.09
H0 : µdif = 0
HA : µ dif ≠ 0
ν = 10
x dif = 0.02
s dif = 0.1118
11
tcalc=0.02 = 0.593
0.1118
tcrít(P=0.05,ν=10,2T)= 2.23
tcalc < tcrít
Quando efectuamos uma série de medições, muitas vezes há um (ou mais) resultado que
parece ser bem diferente dos restantes. Existe a tendência de rejeitar esse valor anómalo
(“outlier”) antes de calcular x e s, ou antes de aplicar o teste estatístico adequado.
Anotemos o seguinte :
. A estimativa correcta da média depende também da exclusão de dados falsos, p.ex., quando
os números são mal transcritos.
___________________________ ___________________________
Interpretação : tratá-lo como falso Interpretação : não tratá-lo como
falso
O conjunto de dados é bem descrito Se o “outlier” é, de facto, falso,
sem o elemento questionável teremos uma sobrestimativa de σ
e uma estimativa desviada da
média.
Todos os dados são imperfeitamente
descritos pela estatística.
Há vários testes simples para ajudar a decidir se se deve ou não desprezar um valor estranho.
O mais conhecido é o teste Q de Dixon, em que a diferença entre um valor suspeito e o valor
mais próximo (A) é comparado com a diferença entre o maior e o menor valor (B).
+ + + ++ + + + + +
|_____ A _____|
|________________ B _____________|
É evidente que, quando um único valor estranho é suspeito, ele será o maior ou o menor
valor dos dados.
O valor crítico de Q vem tabelado.
Se Qcalc > Qcrít, então a medição suspeita é rejeitada.
Exemplo:
x = 23,20
s = 5,554
Este exemplo ilustra claramente uma das limitações dos testes “outlier”. Há realmente 2 valores
suspeitos (11 e 17), de modo que, no cálculo de Q, o valor do numerador talvez seja menor do
que aquele que foi tomado.
A aplicação deste método mostra que, quando n é pequeno, para se rejeitar uma medição, ela tem
de ser muito diferente. Se se suspeita de um valor e se houver quantidade disponível da
substância a analisar, recomenda-se efectuar medições adicionais.
É preciso salientar que o teste de Dixon admite que os dados provêm de uma população normal.
Caso esta hipótese não seja válida, então um valor aparentemente anómalo não será realmente
anómalo.
< observação :
23.2 − 11
G1 = ( x –x1)/s = = 2.20
5.55
O teste Grubb tem também problemas em rejeitar um “outlier” quando há mais que um valor
suspeito.
valorsuspe ito − x
Tn = x e s são a média e o desvio-padrão da série inteira
s
incluindo o valor anómalo
Particularmente, a prática de fazer 3 medições e rejeitar a que se afasta mais das outras 2 deve
ser evitada.
Além disso, demonstra-se que a mediana de uma série de 3 medições fornece muito
provàvelmente uma estimativa mais correcta do valor certo do que a média dos 2 valores após
rejeição arbitrária do valor estranho.
Uma alternativa moderna para o teste de ”outlier” é a estatística robusta que trabalha
acomodando “outliers” em vez de os excluir. Isto pode ser feito minimizando a função de erro
f(xi-µ) em vez do quadrado (xi-µ)2.
Decidir ou não pela rejeição de “outliers” depende da sua aplicação, devendo-se, contudo,
visualizar sempre os dados antes do teste estatístico (p.ex. um histograma).
Se em vez de, p.ex., se fazer 50 medições repetidas (o que, na prática não é muito usual),
tomarmos 10 amostras de 5 medições e observarmos como as médias das amostras deste
31
tamanho se distribuem em torno de µ, constata-se que estas médias estão mais estreitamente
agrupadas em torno de µ do que no caso das medições originais.
Tal como as medições originais eram uma amostra de uma população ∞ de medições possíveis,
assim estas médias são uma amostra das médias possíveis de 5 medições.
Outra propriedade da distribuição das médias das amostras, conhecida por Teorema do Limite
Central é :
Se se tomar muitas amostras pequenas de uma distribuição uniforme (i.e., em que cada elemento
tem igual probabilidade de ocorrência), mesmo que a população original não seja normal, à
medida que o tamanho da amostra (i.e., o número de observações) aumenta, a distribuição das
médias das amostras tende para a normalidade.
Este Teorema é muito importante porque muitos testes estatísticos baseiam-se na média e
admitem que é normalmente distribuída.
Como na prática podemos assumir que as distribuições de medições repetidas seguem uma
distribuição pelo menos aproximadamente normal, é razoável admitir que as médias de amostras
bastante pequenas, digamos, mais de 5 amostras, seguem também uma distribuição normal.
Portanto, o resultado do Teorema do Limite Central, combinado com o facto de que os erros
analíticos em medições repetidas parecem ter uma distribuição pelo menos aproximadamente
normal, justificam o uso geral de testes estatísticos que admitem a normalidade.
n→
n=4 n=5
250 200
32
→ →
0 x variável 0 x variável
A curva cumulativa (B) mostra o tamanho relativo da área a traço grosso comparado com a área
total de (A) à medida que x se move da esquerda para a direita.
Para ver se os dados são consistentes com a hipótese da normalidade, representa-se a curva de
frequência cumulativa num papel gráfico especial chamado papel de probabilidade normal.
Este papel tem uma escala não linear no eixo vertical para converter a CFC sigmoidal (com a
forma de s) numa linha recta.
Exemplo :
Testar a normalidade da seguinte série de dados :
109 ; 89 ; 99 ; 99 ; 107 ; 111 ; 86 ; 74 ; 115 ; 107 ; 134 ; 113 ; 110 ; 88 ; 104
Procedimento :
1o. Ordenar os dados por ordem crescente
2o. Indicar, para cada medição, a frequência cumulativa
3o. Calcular a % da frequência cumulativa através de
33
freq.cumulativa
% freq. cumulativa = x100 n : no. total de medições
n +1
↓ (neste caso n=15)
n+1 e não n por razões matemáticas
o
4 . Se os dados provêm de uma distribuição normal, o gráfico da CFC (em função das
medições) tem a forma de s.
5o. Em papel de probabilidade normal a CFC dará aproximadadmente uma linha recta.
Pode-se construir 1 tabela a partir das etapas 1o., 2o. e 3o. do procedimento
Um outro teste de normalidade é o teste Kolmogorov – Smirnov (K-S). Este teste baseia-se
também na distribuição da frequência cumulativa. A sua aplicação requer a padronização prévia
dos dados, i.e., o cálculo da variável normal padronizada
zi = (xi – x ) / s
ou
zi = (xi – µ) / σ
conforme se pretenda testar se um conjunto de dados de média x e desvio-padrão s obedece a
uma distribuição normal ou se os resultados provêm de uma população normal específica de
média µ e desvio-padrão σ.
34
Estatística clássica – é usada quando se espera que os dados a serem tratados representem
amostras de populações normais. Geralmente espera-se que os dados analíticos tenham este
comportamento).
Estatística robusta – pode ser usada se os dados seguirem de forma grosseira uma distribuição
normal, i.e., se tiverem uma distribuição unimodal simétrica ; contudo, os dados podem ser
lateralmente pesados (em que a proporção dos valores extremos é um tanto ou quanto maior que
a prevista pela curva normal) ou estar contaminados com “outliers”. Os dados analíticos
comportam-se muitas vezes desta maneira.
Estatística não-paramétrica – não faz absolutamente nenhuma suposição sobre a distribuição
de frequência dos dados. Diz mais respeito ao teste de significância do que à estimativa. Os
testes não-paramétricos são menos poderosos que os testes clássicos (em termos de probabilidade
de rejeitar a hipótese nula quando, de facto, é falsa).
Uma interpretação óbvia é que o valor 15.0 é um “outlier” e que a média “real” dos dados é ≅ 5.0
e o desvio-padrão “real” é ≅ 0.4.
Os valores da média e especialmente do desvio-padrão são fortemente influenciados pela
presença do “outlier”. Se duplicarmos o valor do “outlier”, x e s aumentam consideràvelmente.
Dispondo os números por ordem crescente teremos :
A mediana é o valor central 5.1 ; por definição, há igual número de observações antes e depois (a
mediana de um número par de observações é a média dos 2 valores centrais). O valor da mediana
não é afectado se o suposto “outlier” duplicar. Efectivamente a mediana não muda se o último
número tiver qualquer valor acima de 5.1.
Diz-se que a mediana é resistente a “outliers”. É uma estimativa robusta da tendência central e,
neste caso, aproxima-se do que esperamos para o valor “real”.
Para uma distribuição normal, a MDA está relacionada com o desvio-padrão através de
MDA : 2σ /3
5.1. INTRODUÇÃO
A maior parte dos métodos usados em Química Analítica moderna são métodos instrumentais em
que os resultados da análise são avaliados por meio de métodos de calibração.
Através dos pontos da calibração, obtém-se uma linha recta ou curva que pode ser usada para
determinar o teor do anólito numa solução desconhecida por interpolação (ou extrapolação).
A regressão é frequentemente vista como um método que “traça a melhor recta através de um
conjunto de pontos”, o que é uma grande simplificação pois depende de como os dados foram
recolhidos e do que significa considerar a melhor recta.
Diversas questões de natureza estatística são colocadas por ensaios de calibração :
- Que tipo de linha (recta, curva, parte recta, parte curva) devia obter-se através dos
pontos de calibração ?
- Uma vez que os sinais instrumentais obtidos a partir dos padrões estão sujeitos a erros
acidentais, qual a melhor recta ou curva através desses pontos ?
- Quais os erros associados à concentração do anólito obtida por interpolação ?
- Qual o limite de detecção da análise ?
y=α+βx
0 x
37
Embora os centros das distribuições caiam exactamente na linha α+βx, os valores reais
observados (yi) são tomados aleatòriamente da distribuição e, portanto, não caem sobre a
verdadeira linha (excepto por mero acaso).
O objectivo da regressão é estimar a e b a partir dos pares de valores experimentais xi, yi. Os
valores obtidos (a e b) diferem de α e β devido a variações aleatórias na direcção yi.
Na calibração linear, um dos pontos é normalmente o branco, i.e., a solução que contém o
solvente e todos os reagentes adicionados aos padrões e à solução-amostra, excepto o anólito.
É muito comum subtrair-se o sinal do branco dos outros sinais dos padrões antes da
representação do gráfico. Isto não é correcto, pois o ponto correspondente ao branco está
sujeito a erros como os outros pontos pelo que deve ter o mesmo tratamento.
Basta ver que, se considerarmos que aos resultados do branco yb e de um padrão yp, estão
associados erros acidentais eb e ep, o erro acidental em yp-yb não é ep-eb (ter em conta a
propagação de erros acidentais).
Portanto, a subtracção do branco não dá uma estimativa correcta dos erros acidentais no gráfico
de calibração, além de que este pode não passar pela origem.
∑ [(x
i
i − x )( yi − y )]
r= 1/ 2
xi e yi são pontos do gráfico e x e y as médias de xi e yi
⎧⎡ 2 ⎤⎡ 2 ⎤⎫
⎨ ⎢∑ ( x i − x ) ⎥ ⎢ ∑ ( y i − y ) ⎥ ⎬
⎩⎣ i ⎦⎣ i ⎦⎭
y y y
x x x
correlação positiva correlação negativa correlação linear nula
Se r=0 ou próximo de 0, não significa que não há relação entre x e y, apenas não há
correlação linear.
y
r=0, i.e., não há correlação linear entre x e y, mas existe outro
tipo de correlação (neste caso, parabólica)
x
38
O estudo dos resíduos, que se indica mais adiante, é mais adequado para o teste da linearidade.
Deve-se sempre construir a curva de calibração, caso contrário, pode-se erradamente concluir
que há uma relação linear apenas a partir do cálculo de r.
Quando r é muito pequeno, pode-se usar um teste estatístico para saber se r é ou não
significativo. Calcula-se
r n−2
t= 2
n : no. de pares de pontos
1− r
5.3. RESÍDUOS
Consideremos um conjunto de pontos (x,y) (pontos assinalados com cruz) e uma linha ajustada
arbitrária ŷ = a+bx
y
ŷ = a+bx
Para cada valor de x, a linha define o valor “ajustado” de y (ŷ) (os pontos . sobre a linha). A
distância vertical (y - ŷ) entre um ponto y e a linha é designada por resíduo.
39
resíduos, i.e.,
∑ ( yi − yˆ i ) ou ∑ [y − (a + bx )]
2 2
i i
i i
Recorde-se que os valores de xi e yi são constantes e são fixados pela experiência. Aqui a e b são
as variáveis.
Os valores de a e b são obtidos minimizando a soma atrás referida, através do cálculo diferencial,
determinando as derivadas da soma em ordem a a e b e igualando a 0.
Após os cálculos, obtém-se :
∑ [(x − x )( y − y )]
i i
b= i
∑ (x − x ) 2
i
i
a = y − bx
Note-se que x e y não são permutáveis. Se se inverter os papéis na equação anterior, obtém-se
uma linha diferente.
Exemplo :
Calcular a regressão de y sobre x a partir dos seguintes dados :
x y
0 0.0
1 0.9
2 2.2
3 3.1
4 4.1
5 5.3
∑ 15 15.6
∑/6 2.5 2.6
(x − x ) (y − y ) (x − x )
2
(x − x )(y − y )
-2.5 -2.6 6.25 6.50
-1.5 -1.7 2.25 2.55
-0.5 -0.4 0.25 0.25
0.5 0.5 0.25 0.25
1.5 1.5 2.25 2.25
2.5 2.7 6.25 6.75
Σ 17.5 18.5
40
b = 18.5/17.5 = 1.057
a = 2.6-1.057x2.5 = -0.043
6
5
4
3
2
1
0
-1 0 1 2 3 4 5 6
y y
x x
Deve-se também graficar os resíduos após a regressão para ver se há qualquer problema
adicional.
Os resíduos são uma amostra aleatória de uma distribuição normal com média zero e desvio-
padrão
∑ (y − yˆ i )
2
i
sy/ x = i
n−2
Se a linha de regressão for um bom ajuste dos dados, espera-se também que sy/x seja uma
estimativa de σ e os resíduos terão o seguinte aspecto:
41
2 sy/x ------------------------------------
------------------------------------
Resíduo 0 ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯
------------------------------------
-2 sy/x ------------------------------------
y
2 sy/x ------------------------------------
------------------------------------
Resíduo 0 ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯
------------------------------------
-2 sy/x ------------------------------------
y
Devido à relação curvilínea entre y e x (gráfico de calibração curva)
2 sy/x ------------------------------------
------------------------------------
Resíduo 0 ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯
------------------------------------
-2 sy/x ------------------------------------
y
Devido a um “outlier” nos dados de y
2 sy/x ------------------------------------
------------------------------------
Resíduo 0 ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯
------------------------------------
-2 sy/x ------------------------------------
y
Devido ao aumento da variância de y com x (os resíduos tendem a ser maiores à medida que y aumenta)
x y ŷ y-ŷ (y-ŷ)2
0 0.0 -0.043 0.043 0.0019
1 0.9 1.014 -0.114 0.0130
2 2.2 2.071 0.129 0.0167
3 3.1 3.128 -0.028 0.0008
4 4.1 4.185 -0.085 0.0072
5 5.3 5.242 0.058 0.0034
∑ 0.003 0.0430
42
2 sy/x ------------------------------------
------------------------------------
Resíduo 0 ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯
------------------------------------
-2 sy/x ------------------------------------
y
Os resíduos devem estrictamente somar zero.
A pequena discrepância que aqui se verifica deve-se a erros de arredondamento.
sy/ x = i
= 0.043 / 4 =0.104
n−2
Admite-se que a função de calibração verdadeira (y = α+βx) passa pela origem, i.é., α = 0.
43
Se efectuarmos uma calibração com n pares de pontos xi,yi, podemos calcular uma estimativa a
de α. Salvo para casos raros, a será diferente de zero devido a erros nos valores de yi .O que
precisamos de saber é se a é significativamente diferente de zero.
Podemos sabê-lo calculando o desvio-padrão de a, sa, e depois efectuar um teste-t com o
resultado,
t=(a-α)/sa
Neste caso α = 0 (esta é a nossa hipótese nula) e, portanto,
t=(a-0)/sa
Exemplo :
Consideremos o conjunto anterior de dados
x y
0 0.0
1 0.9
2 2.2
3 3.1
4 4.1
5 5.3
σ 15 15.6
σ/6 2.5 2.6
∑x
2
Adicionalmente, i = 0 + 1 + .... + 5 = 55
2 2 2
i
44
Substituindo em sa:
1/ 2
⎛ 55 ⎞
sa =0.104 ⎜ ⎟ = 0.075
⎝ 6 x17.5 ⎠
Calculando t a partir de t = (a-α)/sa e como H0 : α = 0
Portanto, existe uma diferença significativa entre a sensibilidade calculada a partir da calibração
e o valor teórico.
Portanto, os limites de confiança de xA podem ser avaliados a partir de xA ± tsxA, com t escolhido
para um certo nível de confiança e n-2 graus de liberdade.
45
xA x
Geralmente é importante ver qual o termo da equação de sxA atrás indicada é dominante e
concentrar na sua redução.
Aqui, o primeiro termo 1/m é dominante, de modo que inicialmente devíamos pensar em reduzi-
lo, efectuando medições repetidas de yA, para o que se pode aumentar m de 1 até 6 (este aumento
não acarreta trabalho adicional à análise).
y y
x x
Como a e b estão sujeitos a erros, xe também está sujeito a erro. O desvio-padrão respectivo é
dado por
1/ 2
⎡ ⎤
sy/ x ⎢1 y2 ⎥
sxe = ⎢ + 2 2 ⎥
b n b ∑ ( xi − x )
⎢⎣ i
⎥⎦
e o intervalo de confiança de xe é definido por
xe + tse
Note-se que sxe ≠ sxA pois a quantidade xe não é deduzida de nenhum valor medido de y.
Seria de esperar que o intervalo de confiança fosse maior no caso da extrapolação do que na
interpolação, i.e., que o método da extrapolação fosse mais preciso. Contudo, isto não se verifica
porque a incerteza em xe provém apenas dos erros acidentais da própria linha de regressão, sendo
o valor de y correspondente fixado em zero.
O limite de detecção (LD) representa a quantidade mínima do anólito que pode ser detectada
através de um sinal do instrumento significativamente maior que o do branco.
Uma definição alternativa para o LD é o valor mais baixo de concentração para o qual o
intervalo de confiança não inclui o valor zero.
O LD é ainda descrito como a concentração do anólito que dá um sinal igual ao do branco (yB)
acrescido de 3 desvios-padrão do branco (sB) :
yB +3sB
O sinal do branco yB pode ser obtido achando a média de várias leituras da solução-branco
(solução que contém todos os reagentes , solvente, etc., excepto o anólito) ou usando o valor da
intersecção a, proveniente da aplicação do método dos quadrados mínimos.
48
Se todas as hipóteses consideradas nestes cálculos forem válidas, os resultados obtidos pelas 2
vias não devem diferir significativamente.
O desvio-padrão pode ser obtido por medições repetidas do branco.
Tomando a intersecção a como medida de yB, sy/x pode ser usado para estimar sB.
yB +3sB = a + 3sy/x
3s y / x
= a +b LD ⇒ LD =
b
O desvio (“bias”) entre dois métodos analíticos ou entre um valor-teste e um valor de referência,
pode ser avaliado para uma certa concentração do anólito (ou sobre uma zona muito restrita) por
meio de testes-t de significância. No entanto, pretende-se, muitas vezes, uma informação geral
sobre o desvio, cobrindo uma zona larga de concentração do anólito. Analisa-se então uma
série de materiais contendo concentrações diferentes do anólito. Neste caso, não se pode usar o
teste-t emparelhado que atribui o mesmo peso a qualquer diferença entre um par de resultados,
independentemente do valor absoluto medido, i.e., admite que qualquer erro, sistemático ou
acidental, é independente da concentração.
Nos diagramas que se seguem, a diagonal representa igualdade entre o valor encontrado e o
esperado. Resultados que mostram desvios estão representados pelas outras linhas.
a) b)
b=1 a=0
a>0 b>1
<0 <1
c) d)
a>0 b=1
<0 a=0
b<1 b≠1
>1 a≠0
e) f)
49
Estas particularidades podem ser testadas por meio das seguintes hipóteses e meios estatísticos :
A regressão parece ser o método óbvio para estimar a, b e os seus erros ou desvios-padrão.
Para que as estimativas de α e β sejam significativas, é necessário que as concentrações do
anólito estejam dispersas de modo aproximadamente uniforme sobre toda a zona, i.é, desde o
maior valor até zero.
Se tomarmos apenas uma pequena zona acima de zero, pode ser mais apropriado aplicar o teste-t
emparelhado.
A precisão dos 2 métodos pode ser avaliada por meio do cálculo de s e comparada pelo teste-F.
Na prática, recomenda-se que isto seja feito antes de traçar a linha de regressão de modo a
colocar o método mais preciso no eixo dos x.
Exemplo 1 :
Determinou-se o Pb em 7 materiais de referência certificados de solos por ICP-AES. Os
resultados são a seguir indicados :
50
ppm
solo certificado encontrado
1 0.9 1.4
2 1.3 1.75
3 2.1 2.6
4 4.9 5.75
5 5.3 6.05
6 7.0 7.55
7 9.0 9.15
10
8
encontrado
6
4
0
0 2 4 6 8 10
verdadeiro
Exemplo 2 :
Suponhamos que os dados do exemplo anterior eram realmente parte de uma zona mais extensa.
51
ppm
solo certificado encontrado
1 0.9 1.4
2 1.3 1.75
3 2.1 2.6
4 4.9 5.75
5 5.3 6.05
6 7.0 7.55
7 9.0 9.15
8 15.3 16.65
9 31.4 30.55
10 43.0 42.75
11 65.0 69.15
12 132.0 132.15
Embora o valor de a seja próximo do obtido a partir do conjunto truncado de dados (exemplo 1),
o desvio-padrão é maior devido à maior variabilidade dos valores de concentração (zona
alargada a valores de concentração mais elevados).
A regressão pesada, com um valor de sa mais pequeno, mostra que há desvio translacional
significativo, o que é ignorado pela regressão não-pesada.
Uma suposição da regressão simples é que a variância dos valores de y registados para um dado
x é constante, i.é, não depende do valor de x. Esta particularidade, chamada homoscedasticidade,
não é verdadeira em muitas aplicações analíticas.
y y=α+βx Homoscedástico
A regressão simples é apropriada
para este tipo de aplicação
0
x
y=α+βx Heteroscedástico
A regressão pesada seria apropriada
para este tipo de aplicação
0 x
Dados não homoscedásticos podem ser tratados por meio da regressão pesada. Esta pode ser
efectuada se a variância dos valores de y, var(y), para cada x for conhecida ou puder ser
estimada.
Os pesos são dados por :
wi = 1 / var(yi)
e os coeficientes da regressão pesada são dados por fórmulas análogas às da regressão simples :
Simples Pesada
x = ∑ xi n x w = ∑ wi xi ∑w i
i i i
∑ (x − x )( y − y )
i i ∑ x (x − x )( y − y )
i i i
2
b= i
bw = i
∑ (x − x ) ∑ w (x − x )
2 2
i i i
i i
a = y − bx a w = y w − bw x w
A regressão pesada, incluindo o cálculo de erros-padrão, pode ser executada por meio de pacotes
estatísticos.
Pesos estimados
Em regressão pesada é necessário estimar a var(y) para cada valor de x. Elas podem ser
estimadas a partir de medições repetidas de y. Porém, como realmente sucede em experiências
analíticas, o número de réplicas é pequeno, pelo que as estimativas obtidas serão grosseiras.
53
Contudo, é possível melhorar as estimativas amortecendo os resultados por meio de uma relação
ideal entre σy e x.
Por exemplo, pode-se admitir que um gráfico de σy vs x seja geralmente uma linha recta. Pode-
se, portanto, conseguir resultados mais fiáveis usando valores ajustados de sy (assinalados com
um círculo aberto) em vez dos pontos originais (a cruz).
sy
linha ajustada
Note-se que é essencial admitir uma intersecção para esta função, caso contrário o peso (que é o
inverso da variância) em x=0 seria ∞.
O desvio-padrão da concentração obtida a partir de uma resposta observada y0 é dado por uma
equação análoga à que vimos anteriormente (item.5.7.).
1/ 2
⎡ ⎤
sy/ x ⎢ 1 1 ( y 0 − y )2 ⎥
sc = + +
b ⎢ w0 n b 2 ∑ wi ( xi − x )2 ⎥
⎢⎣ i
⎥⎦
y y
x (C) x (C)
Regressão simples Regressão pesada
6.1. INTRODUÇÃO
Ela permite a análise de medições que dependem de vários factores que actuam
simultâneamente de modo a decidir que efeitos são importantes e como estimá-los.
A questão básica é determinar que parte da variação numa população se deve a causas
sistemáticas e que parte se deve ao acaso.
- Suponhamos agora que uma das amostras é um pó fino enquanto que a outra é mais
granular que tem de ser moída para obter partículas mais finas antes da análise.
Se um laboratório tiver bom equipamento de moagem, fornece resultados rigorosos
para ambas as espécies de amostras, ao passo que um outro laboratório com
equipamneto inadequado pode produzir resultados correctos para a primeira amostra e
resultados sistemàticamente mais baixos para o material mais grosseiro.
Por outras palavras, o efeito laboratório não é o mesmo para todas as amostras.
Chama-se a isto interacção amostra-laboratório que pode ser detectada por meio da
ANOVA.
Como se referiu atrás, ANOVA é uma técnica geral e potente que, num conjunto de dados
experimentais, separa as contribuições para a variação total e testa a sua significância.
Quer dizer, representa um meio de determinar os efeitos separados de diferentes fontes de
variação.
Cada uma das fontes de variação (uma das quais é invariàvelmente o erro de medição
experimental) é caracterizada por :
i
A variância residual, i.e., a variação devida aos desvios da linha de regressão é
∑ ( yi − yˆ i ) (n − 2)
2
i
A diferença entre elas, que corresponde à variância devida à regressão, é a variância dos valores
de ŷ. Por outras palavras, é a parte da variação devida à relação entre y e x, ou ao ajuste da
equação aos pontos de calibração
∑ ( yˆ i − y )
2
i
com 1 grau de liberdade.
Fonte de variação ν SS MS F
Regressão 1
∑ ( yˆ − y) MS1 MS1/MSR
2
i
i
Residual n-2 ∑ (y − yˆ i ) MSR
2
i
i
Total n-1 ∑ (y − y)
2
i
i
Trata-se de uma ANOVA unimodal, havendo apenas uma fonte de variação em adição ao erro
experimental.
Deve-se evitar uma sobreinterpretação de R2, p.ex., quando se julga que os pontos experimentais
representam uma relação linear (ver exemplo que se dá adiante).
Uma das tarefas importantes em química analítica é saber se o gráfico de calibração é linear.
Seria muito útil se houvesse um teste estatístico de linearidade mas, em estatística, não há
resposta directa a essa questão. Contudo, se dispusermos de dados suficientes, podemos ser
capazes de responder a uma outra questão relacionada, nomeadamente :
Há falta de ajuste (“lack of fit”) significativa ao modelo linear ?
Similarmente, podemos testar a falta de ajuste comparando sy/x2 (que é estimado durante a
regressão como sendo ∑ ( y i − yˆ i ) (n − 2) ) com uma estimativa independente de σ2, que pode
2
i
ser obtido através de réplicas de valores de y.
SS ν
x1 y11 y12 ……………... y1m ∑ (y − y1 ) m-1
2
1i
i
x2 y21 y22 ……………... y2m ∑ (y − y2 ) m-1
2
2i
i
x3 y31 y32 ……………... y3m ∑ (y − y) m-1
2
3i
i
: : : : : :
: : : : : :
: : : : : :
xn yn1 yn2 ……………... ynm ∑ (y − yn ) m-1
2
ni
i
TOTAL ∑ (y − yj) n(m-1)
2
ji
i
58
MSE =
n(m − 1)
que se chama quadrado médio do erro puro “pure error mean square”.
Para estimar o quadrado médio da falta de ajuste, considera-se o quadrado médio do resíduo :
∑∑ (y ji − yˆ j )
2
j i
nm − 2
j i
Compara-se o valor de F calculado com o valor tabelado para P=0.05, ν=n-2 e n(m-1).
↓
Estima σ2
Só se o modelo linear é
correcto
59
A regressão linear conduz ao gráfico que acima se mostra (em que não há qualquer indicação
nítida de falta de ajuste) e às tabelas ANOVA seguintes :
x y SS ν Fonte ν SS MS F
(erro puro)
0 1.2 -0.5 1.445 1 Regressão 1 15602 15602 4303
1 10.6 11.2 0.180 1 Residual 20 72.52 3.626
2 19.4 18.8 0.180 1 Total 21 15675 746.42
3 30.8 31.4 0.180 1
4 38.3 36.6 1.445 1
5 46.2 49.3 4.805 1 Fonte ν SS MS F
6 55.1 54.9 0.020 1 Falta de ajuste 9 63.45 7.05 8.55
7 62.0 62.7 0.245 1 Erro puro 11 9.07 0.824
8 69.6 70.1 0.125 1 Residual 20 72.52 3.626
9 79.1 78.6 0.125 1
10 85.2 84.4 0.320 1
∑ 9.07 11
O valor crítico de F é
F(P=0.05,ν1=9, ν2=11) = 2.90
O exame do gráfico dos resíduos seguinte dá uma indicação de uma calibração não linear.
Note-se que a variância que é contada para a regressão, dada pela razão R2 = 0.995, podia ser
incorrectamente tomada como indicador de uma relação linear!
60
Resíduos
Conc
. Um estudo da falta de ajuste justifica tomar mais pontos do que os normalmente requeridos
para a calibração , devendo ainda estar uniformemente espaçados quanto à concentração.
Não se pode indicar exactamente o número de pontos necessário, mas sugere-se um mínimo de
8 valores de x.
. As réplicas devem ser repetições reais, i.é., o procedimento total deve ser repetido para cada
medição.
Pode-se usar um esquema de desenho aleatorizado para a calibração. Medem-se as respostas
uma vez para o conjunto de padrões de calibração numa ordem aleatória ; em seguida,
repetem-se as medições uma segunda vez numa ordem aleatória diferente.
Apresenta-se a seguir os dados para m analistas, cada com n observações. Haverá um total de
N=mn observações classificadas em m grupos de n observações cada.
61
Grande v 1
média X = ∑ xi
m i
1 ⎛1 ⎞
= ∑ ⎜ ∑ xij ⎟
⎜
m i ⎝n j ⎟
⎠
1
= ∑∑ xij
mn i j
x ij : observação j do grupo i
X : grande média das N=mn observações
(x ij − X ) = (xij − xi ) + (xi − X )
Elevando ambos os membros ao quadrado e considerando o ∑ em i e em j :
∑∑ (xij − X ) = ∑∑ (xij − xi ) + n∑ (xi − X )
2 2 2
i j i j i
Soma total dos quadrados = soma dos quadrados dos desvios dentro do grupo + soma dos
quadrados dos desvios entre grupos
Fonte de SS ν MS MS é uma
variação estimativa de
Entre grupos SSB=n ∑ ( xi −X ) 2 m-1 MSB=SSB/m-1 σ02 + nσ12
i
Dentro grupos SSw= ∑∑ (xij − xi ) N-m MSW=SSW/N-m σ02
2
i j
i j
62
A variância total contém contribuições devidas às variâncias dentro dos grupos assim como
variâncias entre grupos.
O objectivo da ANOVA é determinar se a variância entre grupos é significativamente maior que
a variância dentro dos grupos.
Quer dizer, ANOVA diz se as diferenças entre um conjunto de médias são significativamente
maiores que as esperadas a partir da variância do erro de medição.
A última coluna da tabela anterior mostra que, para exprimir o efeito da variância entre grupos
sobre uma única observação, é necessário adicionar à variância dentro de um grupo, uma
variância devida ao efeito de grupo.
Porém, uma vez que o efeito de grupo é determinado considerando a média de n observações, a
variância de uma única observação é nσ12, se σ12 for a variância da média dos grupos.
Assim, MSB é uma estimativa de σB2 dado por
σB2=σ02 + nσ12
De acordo com a H0, σ12=0 e σB2=σ02, ou seja, todas as amostras provêm de uma população de
média µ e variância =σ02.
A razão Fm-1,N-m = σB2/σ02 é comparada com tabelas de F ao nível de confiança desejado para
determinar se a razão é significativa.
Se o teste-F provar que σ12 tem um valor significativo, este pode ser estimado quantitativamente
usando a equação atrás descrita
σB2=σ02 + nσ12
Há fórmulas que simplificam os cálculos das somas dos quadrados e que estão sumarizadas na
tabela seguinte :
Fonte de variação SS ν
Entre grupos ∑T m-1
2
i n −T 2
N
i
Dentro dos grupos Por subtracção Por subtracção
TOTAL ∑∑ xij − T 2 / N N-1
2
i j
em que
N=nm (n observações ou medições e m grupos) : no. total de medições
Ti : soma das medições no grupo i
T : soma de todas as medições, grande total
63
Exemplo :
Pretende-se investigar a influência das diferentes condições de armazenamento sobre
a estabilidade de um reagente fluorescente. Os resultados apresentados referem-se a medições
efectuadas por um método de fluorescência molecular em soluções de igual concentração (os
valores dos sinais de fluorescência vêm em unidades arbitrárias). Para cada amostra (grupo),
fizeram-se 3 medições.
Condições Medições Média
A Recentemente preparada 102 ; 100 ; 101 101
B Guardada durante 1 h no escuro 101 ; 101 ; 104 102
C Guardada durante 1 h a meia luz 97 ; 95 ; 99 97
D Guardada durante 1 h sob luz intensa 90 ; 92 ; 94 92
X 98
A tabela mostra que os valores médios para as 4 amostras (ou grupos) são diferentes. ANOVA
testa se essas diferenças podem ser atribuídas apenas a erros acidentais.
Para simplificar os cálculos, pode-se subtrair o número 100 de todas as medições :
Ti Ti2
A 2 0 1 3 9
B 1 1 4 6 36
C -3 -5 -1 -9 81
D -10 -8 -6 -24 576
T = -24 702 = ∑ Ti
2
∑∑ x
2
ij = 4+1+1+1+16+9+25+1+100+64+36
i j
=258
Fonte de variação SS ν MS
Entre-amostras 702/3 – (-24)2/12 = 186 4 –1 =3 186/3 =62
Dentro –amostra 210 – 186 = 24 8 24/8 =3
TOTAL 258 – (-24)2/12 = 210 12 – 1=11
Fcalc > Fcrít ⇒ a H0 é rejeitada, i.e., as médias das amostras diferem significativamente, ou seja,
as diferentes condições de armazenamento influem na estabiliddae do reagente analisado.
Para calcular a variância das médias das amostras, i.e., a variância devida às diferentes condições
de armazenamento :
62 = 3 +3σ12 ⇒ σ12 = 59/3 = 19.7
64
Neste tipo de ANOVA cada medição xij é classificada de acordo com 2 factores.
Bloco Tratamento
1 2 …. j …. c Total fila
1 x11 x12 …. x1j …. x1c T1.
2 x21 x22 …. x2j …. x2c T2.
: : : …. : …. : :
: : : : : :
i xi1 xi2 …. xij …. xic Ti.
: : : …. : …. : :
: : : : : :
r xr1 xr2 …. xrj …. xrc Tr.
TOTAL T.1 T.2 …. T.j …. T.c T=grande
coluna total
Fonte de variação SS ν
Entre-tratamento c c-1
∑T
2
.j r −T 2 N
j =1
Entre-bloco r r-1
∑T
i =1
i.
2
c −T 2 N
i j
Exemplo :
Pretende-se comparar a % de eficiência de diferentes agentes quelatantes na extracção de iões
metálicos a partir de soluções aquosas. As experiências foram realizadas durante 3 dias tendo-se
preparado, por dia, uma solução recente do ião metálico e feito a extracção com cada um dos
agentes quelatantes tomados numa ordem aleatória. Os resultados obtidos foram os seguintes :
Agente quelatante
Dia A B C D
1 84 80 83 79
2 79 77 80 79
3 83 78 80 78
65
Nesta experiência, o uso de agentes quelatantes é um factor controlado uma vez que os agentes
quelatantes são escolhidos pelo analista. O dia em que se realiza a experiência apresenta variação
não controlada causada por variações de temperatura e pressão do laboratório, bem como por
ligeiras diferenças na concentração do ião metálico, i.e., o dia é um factor aleatório.
- se a variação de dia para dia é significativamente maior que a variação devida ao erro
acidental da medição e, em caso afirmativo, estimar a sua variância.
i
T.j2 36 25 9 16
____________ ____________
∑ T. j = 86
2
i j
Fonte de variação SS ν MS
Entre-tratamento 86/3 – 0/12 = 28.67 4-1 =3 28.67/3 = 9.56
Entre-bloco 62/4 – 0/12 = 15.5 3-1=2 15.5/2 = 7.75
Resíduo 54 – (28.67+15.5) = 9.83 11-(3+2)=6 9.83/6 = 1.64
Total 54 – 0 =54 12-1=11
Se não houver diferença entre as eficiências ou dias, então os 3 quadrados médios darão uma
estimativa de σ02, a variância da variação aleatória devida ao erro experimental.
Não há, portanto, diferença significativa entre os resultados obtidos entre dias.
Se a diferença entre dias tivesse sido significativa, ter-se-ia que considerar efeitos de outros
factores como a temperatura, pressão, preparação da solução, etc.
Anàlogamente,
9.56 = 1.64 + 3σt2 ⇒ σt2 = 2.64 σt2 : variância da variação entre-tratamento
6.7. INTERACÇÃO
Suponhamos que os resultados para as combinações a1b1, a1b2 e a2b1 são 10, 15 e 12.
FactorA
a1 a2
Factor B b1 10 12
b2 15 ?
Se não houver variação aleatória, o efeito de mudar o factor do nível b1 para b2 (com o factor A
ao nível a1) é 5.
Se os efeitos forem aditivos, então o efeito de mudar B do nível b1 para b2 (com A ao nível a2)
devia também ser 5, pelo que o valor final em ? deverá ser 17.
Note-se que o efeito de mudar A do nível a1 para a2 é então 2, independentemente do nível de B.
FactorA
a1 a2
Factor B b1 y1 y2
b2 y3 y4
Se os efeitos não forem aditivos dizemos que há interacção entre A e B, porque uma dada
combinação de A e B conduz a um valor mais elevado do que o esperado.
Gràficamente teremos
b1 b2 b1 b2
nível B nível B
A fim de estimar o erro acidental deve-se efectuar réplicas de medições para cada combinação
de factores.
O método através do qual as somas dos quadrados do erro acidental e da interacção podem ser
separadas é ilustrado no exemplo seguinte.
Exemplo :
Pretende-se investigar se uma solução pode ser usada como padrão numa determinação
espectrofotométrica. Para tal mediu-se o valor da absorptividade molar ε de 3 soluções com
concentrações diferentes a 4 valores diferentes de comprimento de onda. Para cada combinação
de C e λ efectuaram-se 2 réplicas, tendo a ordem por que se fizeram as medições sido
aleatorizada. Os resultados obtidos são a seguir apresentados (para simplificar os cálculos, os
valores medidos foram multiplicados por 100) :
λ (nm)
C (g/l) 240 270 300 350
0.02 94 ; 96 106 ; 108 48 ; 51 78 ; 81
0.06 93 ; 93 106 ; 105 47 ; 48 78 ; 78
0.10 93 ; 94 106 ; 107 49 ; 50 78 ; 79
λ (nm)
C (g/l) 240 270 300 350 Ti. Ti.2
0.02 190 214 99 159 662 438244
0.06 186 211 95 156 648 419904
0.10 187 213 96 157 656 430336
T.j 563 638 293 472 T=1966 1288484
T.j2 316969 407044 85849 222784 ∑ Ti.
2
∑T
2
.j =1032646
j
Como anteriormente, calcula-se as somas dos quadrados entre filas, entre colunas e total.
Em ANOVA bimodal subtraía-se uma quantidade T2/N do primeiro termo da soma dos
quadrados.
Aqui é necessário subtrair o termo T2/nrc.
Neste exemplo,
n=2 : no. de medições-réplicas em cada célula
r=3 : no. de filas
c=4 : no. de colunas
∑T
2
Soma dos quadrados entre filas : i. /nc – C =
i
∑T
2
Soma dos quadrados entre colunas : .j /nr – C =
j
A variação devida ao erro acidental, geralmente chamada variação residual, é estimada a partir
da variação dentro da célula, i.e., a variação entre réplicas.
A soma dos quadrados de interacção e ν respectivo podem ser obtidos por subtracção.
Fonte de variação SS ν MS
Entre-filas ∑T r-1=2 12.34/2=6.17
2
i. /nc – C = 12.34
i
Entre-colunas ∑T c-1=3 11059.506/3=3686.502
2
.j /nr – C =
j
11059.506
Interacção Por subtracção Por subracção 1.994/6=0.3323
=11089.84- =23-(2+3+12) = 6
(12.34+11059.506+16)
= 1.994
Resíduo ∑xijk2 - ∑Tij2 /n = 16 (n-1)rc 16/12=1.3333
Cada fonte de variação é comparada com a variância residual para testar a sua significância.
- Interacção
F= 0.3323 / 1.3333
A interacção não é significativa
- Entre-colunas (entre-λ)
F = 3686.502 / 1.3333 = 2765 F(3,12 ; P=0.05 ; 1T) = 3.49
Esta variação é significativa o que era de esperar uma vez que a absorvância depende
do λ.
- Entre-filas (entre-concentrações)
F= 6.17 / 1.3333 = 4.63 F(2,12 ; P=0.05 ; 1T) = 3.885
Esta variação também é significativa, i.e., a absorvância depende da concentração e,
portanto, a solução não serve como padrão de absorvância.
ε 270 nm
100 240 nm
350 nm
300 nm
50
ANOVA tem então aplicação importante em Química Analítica para investigar os efeitos de 2 ou
mais factores controlados e suas interacções na optimização de experiências.
7. DESENHO DE EXPERIÊNCIAS
A análise estatística é muito mais efectiva se se souber de antemão qual a informação requerida
para se poder planear e desenhar a experiência que irá fornecer a referida informação.
A análise estatística decorre então do desenho experimental que tiver sido seleccionado,i.e., ela é
conhecida antes de obter os resultados.
Experiências em que vários factores são analisados, variando-os de acordo com possíveis
combinações entre si, permitem estimar efeitos simultâneos de 2 ou mais variáveis.
Estes efeitos de interacção podem não ser detectados pelo método clássico de experimentação
em que se faz mudar as variáveis, uma de cada vez, mantendo-se as outras constantes.
Como se pode prever, se o número de factores envolvido é grande, o processo torna-se
complicado em termos de desenho experimental e de análise de variância.
Ambos os factores mencionados são qualitativos, uma vez que os seus “valores” possíveis não
números.
Se um factor é caracterizado por um valor numérico, ele é quantitativo como por exemplo a
temperatura, a concentração, o pH, etc.
Os diferentes valores que um factor pode tomar são conhecidos por níveis ou tratamentos.
As condições experimentais podem também introduzir vários factores que afectam os resultados.
São exemplos a temperatura ambiente, se se usa o mesmo aparelho para efectuar medições e se
elas são feitas pela mesma pessoa e no mesmo dia, etc.
Portanto, esses factores devem ser identificados e, se possível, controlados.
Então, o desenho experimental deve ser concebido de modo a incluir as seguintes etapas :
- identificação de factores que podem afectar o resultado de uma experiência
- planear a experiência para que os efeitos de factores não controlados sejam
minimizados
- uso da análise estatística para separar os efeitos dos vários factores envolvidos
Como já foi referido, ANOVA permite separar as várias fontes de variação num conjunto de
dados experimentais e testar a sua significância.
Uma das aplicações importantes da ANOVA diz respeito aos ensaios colaborativos entre
laboratórios.
Um objectivo é estimar as variações dentro e entre laboratórios para um método analítico que se
pretende definir como um método padrão.
Para tal, a mesma amostra é analisada pelo mesmo método em diferentes laboratórios.
Os ensaios colaborativos testam também a precisão e a acurácia dos laboratórios.
Somos então levados a pensar que serão necessárias 27=128 experiências preliminares cobrindo
todas as combinações possíveis de 7 factores a 2 níveis.
Se o número de factores é n, então o número de experiências a levar a cabo num desenho
completo é 2n.
Quando o número de factores é >5, é obvio que se torna muitas vezes impraticável considerar
desenhos completos.
Na prática, porém, apenas 8 experiências darão informação relevante.
Se representarmos os 2 níveis dos factores por + e −, a tabela seguinte mostra como estes níveis
se dispõem nas 8 experiências, cujos resultados são designados por y1, y2, y3, …., y8.
Para determinar o efeito de mudar 1 factor do nível + para o nível −, compara-se o valor médio
dos resultados obtidos para ambos os níveis. Assim, para o factor A, calcula-se
DA = (y1+y2+y5+y6) / 4 – (y3+y4+y7+y8) / 4
Depois de calcular as diferenças para todos os factores, é preciso determinar as que são
significativamente superiores ao erro experimental obtido através das réplicas ao nível +.
Estas medições-réplicas não envolvem trabalho adicional porque, em princípio, já terão sido
realizadas para determinar a repetibilidade do método.
Se esta for caracterizada por um desvio-padrão s, demonstra-se que o factor é significativo se a
diferença
D> 2s
Quando se identifica um factor significativo, devem ser tomadas medidas para eliminá-lo, o que
muitas vezes é impossível, mas pode-se definir os limites de variação do parâmetro em causa.
Exemplo :
Os dados da investigação dos factores pH, temperatura e concentração num método
colorimétrico são os seguintes :
Como muitas vezes se determinam elementos-traço, é preciso escolher os níveis dos factores
que condicionam a resposta que deve ser maximizada.
Primeiro que tudo é necessário definir os factores e que interacções entre eles são de considerar
como capazes de afectar a resposta.
Geralmente isto é feito concebendo um desenho factorial com cada factor a 2 níveis (alto e
baixo).
No caso de uma variável quantitativa, esses termos correspondem a valores numéricos e a sua
escolha obedece às limitações impostas a essa variável. Por exemplo, se o factor em estudo é o
pH, então os valores restringem-se ao intervalo 0-14.
No caso de uma variável qualitativa, os termos alto e baixo referem-se a 2 condições diferentes,
p.ex., presença e ausência de catalizador, amostra em pó e em grãos, presença e ausência de luz,
etc.
74
A experiência factorial vai então testar o efeito de n variáveis ou factores (A, B, C, ….) a 2
valores ou níveis (a1 e a2, b1 e b2, c1 e c2, ….).
Para determinar todos os efeitos são necessárias 2n experiências que são estabelecidas de acordo
com um diagrama ou desenho factorial.
A0 A1
B0 1 a
B1 b ab
A0 A1
B0 B1 B0 B1
C0 1 b a ab
C1 c bc ac abc
ν
Fonte de variação 2 factores 3 factores 4 factores 5 factores
Efeito de 1 factor 2 3 4 5
Efeito de 2 factores 1 3 6 10
Efeito de 3 factores - 1 4 10
Efeito de 4 factores - - 1 5
Efeito de 5 factores - - - 1
___ ___ ___ ___
Total 3 7 15 31
Para testar que efeitos são significativos pode-se usar ANOVA em que as somas dos quadrados
são obtidas a partir dos valores calculados dos efeitos estimados.
Para testar a significância de um efeito, compara-se o quadrado médio respectivo com o erro
residual.
Um efeito principal, ou seja, um factor individual só deve ser testado quanto à sua significância
se não interactua com outros factores.
Um problema que surge com um desenho factorial completo é que, como se sabe, o número de
experiências requeridas aumenta ràpidamente com o número de factores.
Por exemplo, considerando 5 factores , cada a 2 níveis, são necessárias 25=32 experiências (da
tabela anterior – 5 efeitos primários devidos a 1 factor, 10 interacções de 1a. ordem, 10
interacções de 2a. ordem, 5 interacções de 3a. ordem e 1 interacção de 4a. ordem).
Se, adicionalmente, efectuarmos 2 réplicas para cada combinação de níveis, serão necessárias
25+1=64 experiências.
Quando há mais que 3 factores, é possível muitas vezes simplificar o problema, admitindo que
interacções de 3a. ordem ou superior são desprezáveis.
Admite-se que efeitos de ordem mais elevada são geralmente muito menores que efeitos
principais ou individuais e interacções de ordem menor.
Nesses casos, adopta-se um desenho factorial incompleto.
76
77
8. BIBLIOGRAFIA
Analytical Methods Committee : Recommendations for the Definition, Estimation and Use of the
Detection Limit, Analyst, vol.112, 1987, 199-204.
Davies, L. : Efficiency in Research, Development and Production : The Statistical Design and
Analysis of Chemical Experiments, 1993, The Royal Society of Chemistry, Cambridge, 180 pp.
Miller, J. C. e Miller, J. N. : Statistics for Analytical Chemistry, 1993, Ellis Horwood PTR
Prentice Hall, London, 3a. ed., 233 pp.
Miller, J. C. e Miller, J. N. : Basic Statistical Methods for Analytical Chemistry. Part I. Statistics
of Repeated Measurements. A Review, Analyst, vol.113, 1988, 1351-1356.
Miller, J. N. : Basic Statistical Methods for Analytical Chemistry. Part 2. Calibration and
Regression Methods. A Review, Analyst, vol.116, 1991, 3-14.
Thomson, M. : Regression Methods in the Comparison of Accuracy, Analyst, vol. 107, 1982,
1169-1180.