Você está na página 1de 80

MANUAL DE

ESTATÍSTICA

APLICADA À

QUÍMICA ANALÍTICA

ELABORADO POR

FUNG DAI KIN

1996
ÍNDICE

Glossário dos símbolos 1

1. INTRODUÇÃO 3

2. CONCEITOS BÁSICOS
2.1. Precisão e exactidão 4
2.2. Tipos de erros 5
2.3. Outras terminologias ligadas à precisão 7
2.4. Distribuição normal 7
2.5. Áreas sob a curva normal 8
2.6. Amostras estatísticas e amostras aleatórias 10
2.7. Graus de liberdade 10
2.8. Intervalos de confiança da média 11
2.9. Distribuição t de “student” 12

3. TESTES DE SIGNIFICÂNCIA
3.1. Introdução 12
3.2. Hipótese nula 13
3.3. Hipótese alternativa 14
3.4. Teste-t de comparação de uma média experimental com um valor conhecido 14
3.5. Teste bilateral e unilateral 16
3.6. Teste de comparação de 2 médias de 2 amostras com a mesma variância 18
3.7. Teste-F 20
3.8. Teste de comparação de 2 médias de 2 amostras com variâncias desiguais 22
3.9. Teste-t emparelhado 24

4. TRATAMENTO DE DADOS NÃO-NORMAIS


4.1. “Outliers” e dados falsos 27
4.2. Testes de “outlier” – Q de Dixon e Grubb 28
4.3. Teorema do Limite Central 30
4.4. Testes para normalidade 32
4.5. Métodos robustos e não-paramétricos 34

5. CALIBRAÇÃO E MÉTODOS DE REGRESSÃO


5.1. Introdução 35
5.2. Regressão simples 36
5.3. Resíduos 38
5.4. Linha de regressão – método dos quadrados mínimos 39
5.5. Ajuste de bondade 40
5.6. Erros de a e b e limites de confiança 42
5.7. Cálculo de uma concentração x a partir de y 44
5.8. Método de adição-padrão 46
5.9. Sensibilidade e limite de detecção 47
5.10. Regressão para avaliação de erros sistemáticos 48
5.11. Tipos de desvios (“bias”) 48
5.12. Regressão para comparação de métodos analíticos 49
5.13. Regressão linear pesada 51

6. AVALIAÇÃO DE FONTES DE VARIAÇÃO NOS DADOS.


ANÁLISE DE VARIÂNCIA (ANOVA)
6.1. Introdução 54
6.2. A aritmética dos cálculos ANOVA 55
6.3. ANOVA em regressão 56
6.4. Falta de ajuste em calibração 57
6.5. ANOVA unimodal 60
6.6. ANOVA bimodal 64
6.7. Interacção 66

7. DESENHO DE EXPERIÊNCIAS
7.1. Importância do desenho experimental 70
7.2. Desenho factorial 71
7.3. Desenho factorial e optimização 73

8. BIBLIOGRAFIA 76
1

Glossário dos símbolos

a intersecção
b declive (linha de regressão)
c no. de colunas (ANOVA bimodal)
C termo de correcção (ANOVA bimodal)
CV coeficiente de variação
CFC curva de frequência cumulativa
di desvio individual da média
eb erro acidental do branco
ep erro acidental do padrão
F Fischer
G Grubb
H0 hipótese nula
HA hipótese alternativa
k réplica (ANOVA bimodal)
K-S Kolmogorov-Smirnov
LD limite de detecção
MDA mediana da diferença absoluta
MS quadrado médio
n no. de medições
N no. total de medições (ANOVA)
P probabilidade
Q Dixon
r coeficiente de correlação momento-produto
r no. de filas (ANOVA bimodal)
R2 coeficiente de determinação ou coeficiente de correlação múltipla
s desvio-padrão da amostra
s2 variância da amostra
sa desvio-padrão da intersecção
sb desvio-padrão do declive
sB desvio-padrão do branco
se erro-padrão
sp desvio-padrão ajustado
sxA desvio-padrão de xA
sxe desvio-padrão de xe
sy/x desvio-padrão dos resíduos
SS soma de quadrados
t grandeza student
1T teste unilateral
2T teste bilateral
T grande total (ANOVA)
Tn teste ASTM
wi peso (regressão pesada)
x variável independente
xA concentração obtida por interpolação
2

xe concentração obtida por extrapolação


xi medição individual
xij observação j do grupo i ( ANOVA)
xijk réplica k na fila i e coluna j (ANOVA bimodal)
xL valor limite de x
xt valor verdadeiro
x média aritmética da amostra
x média de valores individuais de x
X grande média (ANOVA bimodal)
y variável dependente
yB sinal do branco
yp sinal do padrão
y média de valores individuais de y
ŷ y ajustado (à linha de regressão)
zi variável normal padronizada
α intersecção na ausência de erro
β declive na ausência de erro
ε erro de medição
µ média da população
ν no. de graus de liberdade
σ desvio-padrão da população
σ02 variância do erro de medição (ANOVA unimodal)
σ12 variância das médias da população (ANOVA unimodal)
σb2 variância entre blocos ou filas (ANOVA bimodal)
σ t2 variância entre tratamentos ou colunas (ANOVA bimodal)
3

1. INTRODUÇÃO

Um químico analítico pode estar interessado num resultado qualitativo ou quantitativo.


Na prática, quase todos os ensaios em Química Analítica moderna são quantitativos, mesmo
quando o resultado pretendido é qualitativo. Então, aparentemente, uma resposta quantitativa terá
mais interesse do que uma qualitativa.
Exemplo : Pretende-se antes saber quanto Pb existe na água do mar ou quanto Cr existe no aço
em vez de apenas saber se há Pb na água do mar ou Cr no aço.
Como todas as medições quantitativas estão sujeitas a erros, o químico analítico, após realizar as
experiências, tem que tratar os resultados de modo a que esses erros sejam estimados e seja
avaliada a sua significância.

O resultado de uma análise nunca é, pois, totalmente correcto. Existe sempre uma diferença entre
o valor obtido e o valor verdadeiro e ela é proveniente de erros que se comete durante a análise.
Então é importante saber até que nível é que se pode confiar no resultado.
O objectivo de uma determinação é obter uma estimativa válida do valor verdadeiro.
Nenhum resultado quantitativo tem valor se não for acompanhado de uma estimativa do
erro a ele inerente.

Suponhamos que um químico sintetiza uma substância que pensa ser totalmente nova. Estuda as
suas propriedades e, para uma delas, aplicando um certo método, obtém o valor 50. Consultando
a literatura, constata que não existe, para tal propriedade, um valor superior a 46. Será que
preparou uma substância nova ?
A resposta está ligada ao grau de confiança no resultado.
Se o resultado cai dentro de 2 unidades de grandeza (arbitrária), 50+2, então ele terá realmente
encontrado uma substância nova.
Se o erro for até 5 ou 10 unidades , 50+5 ou 50+10, então provàvelmente não há nada de novo a
apresentar.
Outras questões que ilustram o tipo de problemas de natureza estatística que surgem :
- Numa titulação, obtiveram-se os seguintes valores para o volume do titulante :
18.51 ; 18.23 ; 18.45 ; 18.55 ; 19.25
O último valor parece ser bem diferente dos restantes. Pode-se então colocar a seguinte
pergunta : esse valor deve ser rejeitado ?

- Determinou-se o teor de Ni numa liga por 2 métodos, tendo-se obtido os seguintes


resultados :
x1 = 2.05% com um erro estimado de 0.08%
x2 = 1.69% com um erro estimado de 0.05%
As 2 médias serão significativamente diferentes ou não se distinguem dentro dos limites
do erro experimental ?
Um dos métodos está mais sujeito a erros do que o outro ?
Qual das 2 médias está mais próxima do valor verdadeiro ?

- Num estudo espectrofotométrico pretende-se estudar a influência das variáveis


temperatura e concentração sobre o valor da absorvância.
O efeito de uma variável depende significativamente de outra ?
4

2. CONCEITOS BÁSICOS

2.1. PRECISÃO E EXACTIDÃO

É possível aferir um método analisando materiais de referência, ou seja, amostras de composição


conhecida (certificada).

Suponhamos que se pretende determinar o teor de Cu numa liga de Cu-Zn. Para escolher, entre
os diferentes métodos descritos na literatura, um que dê bons resultados para este tipo de liga,
ensaiamos alguns métodos (que designamos por A, B e C) sobre uma liga semelhante cujo teor
de Cu é conhecido e igual a, p.ex., 30.00%. Cada análise é repetida várias vezes e os resultados
são apresentados na tabela seguinte :

Método A Método B Método C


Análise % Análise % Análise %
1 28.30 1 30.50 1 30.50
2 30.10 2 30.60 2 29.90
3 32.00 3 30.40 3 29.80
4 29.60 4 30.60 4 29.80
5 30.10 5 30.50 5 (22.40)
média 30.02 média 30.52 média 29.95

Observando a tabela, verifica-se que :

- O método A apresenta uma média coincidente com o valor certificado. Dizemos que a
exactidão do método é boa.
No entanto, há resultados individuais que se desviam razoàvelmente do valor médio ;
quer dizer, existe uma grande dispersão nos resultados individuais. Dizemos que a
precisão do método não é boa.

- O método B tem uma média que se afasta do valor 30.00 e, portanto, a sua exactidão não
é boa.
Contudo, a dispersão dos resultados não é grande. Dizemos que a precisão da análise é
boa.

- O valor 22.40 no método C é muito diferente dos restantes o que leva a pensar que deverá
resultar de um engano de cálculo, de um erro na leitura da balança, de perda de material
durante a análise, ou de qualquer outro erro cometido por negligência. Então, esse valor
não tem significado e, consequentemente, é rejeitado ; não entra no cálculo da média.
A dispersão nos outros resultados não é grande e, por isso, a precisão é boa.
A média é próxima do valor certificado pelo que dizemos que o método apresenta boa
exactidão.

Esquematizando,
5

Método A Método B Método C


exacto mas preciso mas exacto e
não preciso não exacto preciso

Precisão (“precision”) ⇔ concordância entre 2 ou mais medições realizadas da mesma


maneira. É a dispersão de um conjunto de medições, “set”, em torno
do valor central.
“set” : é o número de medições repetidas e independentes da mesma propriedade ou réplicas.

Exactidão, rigor ou acurácia (“accuracy”) ⇔ aproximação do valor certo

Como exprimir numèricamente a precisão e a exactidão ?


Precisão absoluta : através do desvio da média di = xi − x
Ex. : consideremos o método A atrás referido e calculemos os desvios individuais di

amostra % Cu di = x i − x
x1 28.30 1.72
x2 30.10 0.08
x3 32.00 1.98
x4 29.60 0.42
x5 30.10 0.08
x =30.02 d =0.86

Precisão relativa (à média ; exprime-se em %) : representa o desvio relativo da média


Ex. : para a amostra 2
0.08
x100 = 0.27 % ou seja, da ordem de 0.3 %
30.02

Exactidão :
Erro absoluto : 30.02 – 30.00 = +0.02 %

0.02
Erro relativo : + x100 = +0.07 % ou seja, da ordem de 0.1 %
30.00

2.2. TIPOS DE ERROS

Bàsicamente podemos considerar 3 tipos de erros :


6

- grosseiros
- sistemáticos ou determinados (“systematic” ou “determinate”)
- acidentais ou indeterminados (“random” ou “indeterminate”)

Erros grosseiros :
Podem ser definidos como erros que são tão sérios que não há outra alternativa senão abandonar
o ensaio e recomeçar. Estes erros são fàcilmente reconhecidos.
Ex.: perda acidental da amostra, uso de um reagente contaminado (que se descobre a meio de um
ensaio), uso de uma escala errada, mau funcionamento do aparelho, etc.

Erros sistemáticos :
São erros que fazem com que os resultados se desviem do valor verdadeiro no mesmo sentido,
i.é, numa série de repetições, todos os resultados ou são mais altos ou mais baixos que o valor
certo. Portanto, os desvios da média, são persistentemente positivos ou negativos.
Este tipo de erros afectam a exactidão. Esta nunca pode ser completamente conhecida porque o
valor verdadeiro nunca pode ser exactamente determinado, devendo-se, em seu lugar, usar um
valor aceite.
Os erros sistemáticos têm origem definida e podem, em princípio, ser identificados. É, pois,
possível prevê-los e eliminá-los.
São exemplos de erros sistemáticos : o precipitado obtido decompõe-se ou volatiliza-se durante
a calcinação ; impurezas nos reagentes ; má calibração do equipamento ; não deixar arrefecer o
cadinho antes da pesagem ; não deixar tempo suficiente para escoar o líquido da pipeta ;
interferência provocada por um componente que reage da mesma maneira que o anólito.
Usa-se muitas vezes o termo “bias” para descrever o erro sistemático.

Erros acidentais :
São erros que fazem com que os resultados individuais caiam num e noutro lado do valor médio.
Surgem quando se efectuam medições repetidas de uma certa grandeza e, por isso, afectam a
precisão dos resultados.
Estão relacionados com os limites de sensibilidade dos instrumentos ou dos nossos sentidos.
Nunca podem ser eliminados, embora possam ser minimizados se trabalharmos com cuidado
suficiente e repetirmos as medições.

A repetição de análises não permite a identificação de erros sistemáticos pois podemos estar a
cometer sempre o mesmo erro em todas as determinações e obter valores concordantes. Uma
prática seguida para detectar erros sistemáticos consiste em aplicar o método usado em materiais
de referência e depois tratar os resultados com a ajuda de testes de significância.

análise ← erro sistemático →


não exacta ←→erro acidental

análise erro acidental valor


exacta ←→ médio

valor
certo
7

2.3. OUTRAS TERMINOLOGIAS ASSOCIADAS À PRECISÃO

Definições diferentes para a precisão :

Repetibilidade :
proximidade de concordância entre resultados obtidos com o mesmo método, mesmo material de
análise e sob condições idênticas (mesmo operador, mesmo aparelho, mesmo material de
laboratório, mesmas condições de temperatura e humidade, mesmo tempo, etc.).
Reprodutibilidade :
proximidade de concordância entre resultados obtidos com o mesmo método, mesmo material de
análise mas sob condições diferentes (operador diferente, aparelho diferente, material de
laboratório diferente, condições diferentes de temperatura e humidade, tempo diferente, etc.).
Variabilidade analítica e dispersão (“ scatter”) – são termos por vezes também usados para se
referir à precisão.

Há autores que preferem o termo imprecisão à precisão para evitar a questão linguística de que
um procedimento é tanto mais preciso quanto a sua medida de precisão, em termos numéricos,
for menor.

Os termos apresentados neste item não são normalmente usados pelos estatísticos e, por isso, não
devem ser usados pelos químicos para exprimir a precisão excepto quando não se pretende
atribuir-lhes nenhum significado estatístico específico.

2.4. DISTRIBUIÇÃO NORMAL

A avaliação dos erros acidentais, que aparecem simplesmente por medições repetidas, é feita por
meio de testes estatísticos (por conveniência , admite-se que os erros sistemáticos estão ausentes
já que eles podem ser identificados e eliminados).

Se considerarmos um conjunto muito grande de medições, teòricamente ∞, ele é designado em


estatística por população. Representamos a média da população por µ e o desvio-padrão
(dispersão ou medida do erro acidental da medição) por σ. Note-se que µ e σ são características
de uma população hipotética pois, na prática, não efectuamos um número ∞ de medições.

O modelo matemático geralmente usado para mostrar a distribuição dos dados é a curva ou
distribuição normal, também conhecida por curva ou distribuição de Gauss cujo aspecto é :

y
ou f(x)

µ-σ µ µ+σ x
8

A equação para a curva normal, de probabilidade ou frequência relativa de ocorrência das


medições, é :

1
.e −( x − µ )
2
2σ 2
y=
σ 2π
∑ (x − µ)
2
i
O desvio-padrão (“standard deviation”) é dado por σ= i
, sendo xi as medições
n
individuais e n o número de medições.
Interessa reter algumas propriedades gerais da curva normal:
- o desvio zero da média ocorre com frequência máxima
- a curva é simétrica em relação a µ (há uma distribuição simétrica de desvios positivos e
negativos em torno deste valor)
- observa-se um decréscimo exponencial na frequência à medida que a grandeza dos
desvios aumenta (quer dizer, há mais incertezas pequenas do que grandes)
- o valor de σ determina a largura da curva

Qualquer variação na média implica deslocar toda a distribuição ao longo do eixo dos x.
Qualquer mudança no σ vai afectar a dispersão da distribuição. Quanto < σ , < a dispersão, i.é,
uma distribuição normal com um σ grande parece uma curva larga, enquanto que com um σ
pequeno parece estreita e ponteaguda.

y
ou f(x)

2σ σ µ x

2.5. ÁREAS SOB A CURVA NORMAL

A área sob a curva normal pode ser dividida em áreas definidas pela média e pelo desvio-padrão.

y
ou f(x)

µ-2σ µ-σ µ µ+σ µ+2σ x


9

As áreas sob a curva podem ser interpretadas como pacotes de observações que caem dentro de
intervalos definidos.

y
ou f(x)
a) área dentro da zona µ + kσ
///// b) área fora da zona µ + kσ

<µ-kσ µ >µ+kσ x

A tabela seguinte indica a probabilidade (P) de uma observação x cair :


(a) dentro da zona µ + kσ ( µ – kσ < x < µ + kσ )
(b) fora da zona µ + kσ

Essas probabilidades designam-se por probabilidades bilaterais (”two-tailed”).

(k)σ P(a) P(b)


1.00 0.683 0.317
1.64 0.900 0.100
1.96 0.950 0.050
2.00 0.954 0.046
3.00 0.997 0.003

A tabela que se segue indica a probabilidade de uma observação ser :


(a) < µ + kσ
(b) > µ + kσ

y
ou f(x)
a)
b) ////

µ >µ+kσ x

Essas probabilidades designam-se por probabilidades unilaterais (“one-tailed”).

(k)σ P(a) P(b)


1.00 0.841 0.159
1.64 0.950 0.050
1.96 0.975 0.025
2.00 0.977 0.023
3.00 0.998 0.002
10

2.6. AMOSTRAS ESTATÍSTICAS E AMOSTRAS ALEATÓRIAS

Em estatística designa-se por população o conjunto de medições possíveis e por amostra, que
constitui parte da população, a sua estimativa.
A população é assim estudada com base em amostras tomadas de modo aleatório. A amostra
aleatória, que deve ser representativa da população estudada, é então usada para verificar
hipóteses sobre a população (testes estatísticos) ou para estimar parâmetros da população (média,
variância, etc.).
Uma amostra aleatória é aquela em que cada membro da população tem igual probabilidade de
ser seleccionado.
Amostras aleatórias “pequenas” retiradas de uma população normal podem ter uma distribuição
não normal.

y 10 y 10

5 5

0 0
x x

Os parâmetros µ e σ do modelo podem ser estimados a partir da média x e do desvio-padrão s de


uma amostra de valores x1, x2, …, xn :

µ é estimado a partir de x = ∑ xi n
i

∑ (x − x)
2
i
σ é estimado a partir de s = i

n −1

Outros parâmetros estatísticos fundamentais :


∑ ( x i − x )2
. variância s 2 = i
n −1
s
. coeficiente de variação ou desvio-padrão relativo (“RSD”) CV = .100%
x
. mediana : é o resultado em relação ao qual os outros estão distribuídos
se o número de resultados for ímpar, e após a sua colocação por ordem crescente, a mediana é
o valor central ; se esse número for par, a mediana é a média do par central.

Os parâmetros desvio-padrão s, desvio-padrão relativo s x , variância s2 são medidas da precisão


(> precisão ⇔ < s ou < s x )

2.7. GRAUS DE LIBERDADE (ν)

Seja uma amostra com n observações. Originalmente há n graus de liberdade.


11

Porém, ao calcular-se a média, usa-se um grau de liberdade, deixando apenas (n-1) graus de
liberdade para os resíduos ( xi - x ) para calcular o desvio-padrão.
Considere uma amostra com 2 observações : 18 e 12. A média da amostra é 15 e os resíduos são
3 e –3. Como os resíduos devem somar zero, se o primeiro resíduo é livre, o segundo é
estritamente determinado, portanto, há apenas um grau de liberdade.
Nalgumas áreas da estatística, onde mais de um parâmetro é estimado, p.ex. na regressão, o
número de graus de liberdade é < n-1.

2.8. INTERVALOS DE CONFIANÇA DA MÉDIA

Como já foi referido, o valor µ para uma populacão de dados nunca pode ser exactamente
determinado porque, para isso, teríamos que efectuar um número infinito de medições.
É então útil considerar uma zona de valores dentro da qual se pensa que µ vai cair.
Por outras palavras, pode-se definir o intervalo de confiança ou os limites de confiança para a
média de n resultados ou para µ.
O termo confiança implica que podemos afirmar, com um certo grau de certeza, i.é, com uma
certa probabilidade, que o intervalo de confiança inclui o valor verdadeiro ; quanto maior a
certeza, maior o intervalo requerido.

y
ou f(x)

n : tamanho da amostra
µ-1.96σ/ n µ µ+1.96σ/ n x
x cairá nesta zona
95 vezes em 100

Para uma distribuição normal, pode-se dizer que 95 vezes em 100 (P=0,95), a média estimada
cairá numa zona específica em torno da média da população.
Esta zona é + 1,96σ / n .

Usando a simbologia matemática :


P ( µ –1,96σ / n < x n < µ+1,96σ / n ) = 0,95
Rearranjando
P ( x n – 1,96σ / n < µ < x n + 1,96σ / n ) = 0,95

⎡O valor exacto 1.96 é usado em vez do valor aproximado 2 frequentemente empregue⎦

Podem ser definidos outros intervalos de confiança usando valores diferentes de 1,96.
Estes valores podem ser obtidos a partir de uma tabela de pontos de probabilidade da distribuição
normal.
12

Por exemplo, 1,64 para um nível de confiança de 90% e 2,58 para 99%. Assim, 90% das médias
da amostra cairão na zona dada por
x -1.64σ / n < µ < x +1.64σ / n

2.9. DISTRIBUIÇÃO t DE STUDENT

Na obtenção dos limites de confiança a partir de médias e desvios-padrão, surge um pequeno


problema : os intervalos de confiança para µ estimados da distribuição normal são demasiado
estreitos.
Este problema pode ser ultrapassado definindo os intervalos de confiança em termos de um
parâmetro “t” de tal modo que :
x - ts / n < µ < x + ts / n

Para amostras grandes (digamos, n>30), s dá uma estimativa suficientemente exacta de σ. Para
amostras pequenas, a incerteza introduzida usando s aumenta, pelo que que se deve usar a
equação modificada atrás indicada para calcular os limites de confiança.

O valor de t depende do tamanho n da amostra ou do número de graus de liberdade ν e encontra-


se em tabelas estatísticas (uni- ou bilaterais).

Para um teste bilateral obtém-se o valor de t para metade da probabilidade encontrada


para um teste unilateral. Por exemplo, para um teste bilateral a P=0.05, usa-se a coluna
P=0.025 do teste unilateral.

3. TESTES DE SIGNIFICÂNCIA

3.1. INTRODUÇÃO

Considere os seguintes resultados analíticos de média x e valor verdadeiro xt

x
↓↓↓↓↓ ↓↓↓↓ ↓↓↓↓ ↓ .
desvio
estimado xt xt
caso 1 caso 2

A estimativa para o desvio é x - xt.


É importante saber se este desvio é “significativo”ou se pode ser atribuído a erros de medição
aleatórios. Para tal usa-se um teste estatístico conhecido por teste de significância.

Do esquema acima representado, é possível que no caso 1 a diferença entre os 2 valores seja
devido a erros aleatórios, mas é muito pouco provável que o mesmo se passe no caso 2.
Os testes de significância são largamente usados na interpretação de resultados experimentais e
na avaliação de dados analíticos. Todos eles seguem o mesmo procedimento geral.
13

3.2. HIPÓTESE NULA

Ao aplicar um teste de significância, estamos a testar a veracidade de uma hipótese denominada


hipótese nula (“null hypothesis”).
Como o próprio nome indica, ela é formulada no sentido de que não existe diferença significativa
entre as quantidades a serem comparadas, além das diferenças atribuídas a variações acidentais.

Consideremos as seguintes etapas :


Etapa 1 Supôr que não há desvio, i.é, no nosso modelo a média da população coincide com o
valor verdadeiro.
Escreve-se :
H0 : µ = xt é a hipótese nula

Etapa 2 Ver o que acontece a uma amostra de observações de tamanho n, tomada ao acaso, a
partir de uma distribuição normal.
Podem ser seguidas 3 vias :

i) Como se sabe, é possível definir um intervalo de confiança de 95% para µ.


ts ts
x- <µ< x+ para um valor apropriado de t
n n

A partir da hipótese nula


H0 : µ = xt
e, substituindo na equação anterior, obtém-se
ts ts
x– < xt < x +
n n

que se espera ser válido 95 vezes em 100.

ii) Pode-se rearranjar a última equação para dar


x − xt
tcrít > em que tcrít é o valor “crítico” ou tabelado
s n

que se espera também ser válido 95 vezes em 100.

iii) Pode-se simplesmente calcular a probabilidade associada ao valor t da amostra


(isto requer o uso de um computador).
Algo que seja provável acontecer terá uma probabilidade elevada; o contrário terá
uma probabilidade baixa (digamos, < 0.05).
Geralmente a H0 é rejeitada se a probabilidade da diferença observada ocorrer por
acaso for < 5 em 100, ou 1 em 20, i.é, 0.05 ou 5% ; diz-se que a diferença é
significativa ao nível de 0.05 ou 5%.

Etapa 3 Se acharmos que os dados experimentais estão conforme as nossas expectativas


admitindo como válida a H0, i.é,
14

ts ts x − xt
x- < xt < x + ou tcrít > ou P > 0.05
n n s n

dizemos : não podemos rejeitar a H0


aceitamos a H0
não encontramos desvio significativo
mas não podemos dizer : não há desvio.

Se se aceita a H0, não se prova que ela é verdadeira, apenas não se demonstra ser falsa.

3.3. HIPÓTESE ALTERNATIVA

Se os dados experimentais não estão conforme as nossas expectativas de admitir como válida a
H0 ,
dizemos: rejeita-se a H0
há evidência de desvio significativo

mas não podemos dizer : há desvio (há uma probabilidade de 5% de rejeitar a H0 quando ela é
verdadeira)

Pode-se então aceitar uma hipótese alternativa:


H A : µ ≠ xt

3.4. TESTE-t DE COMPARAÇÃO DE UMA MÉDIA EXPERIMENTAL COM UM VALOR


CONHECIDO
Como se discutiu prèviamente, o teste-t de uma amostra compara a média dos resultados
x − xt
analíticos com um valor determinado (através do cálculo de e sua comparação com
s n
t crítico ou através do cálculo do intervalo de confiança).

Se tcalc > tcrít, a H0 é rejeitada,ou seja, a diferença entre a média e o valor aceite é consequência de
um erro determinado, i.é, há evidência de existir um erro sistemático.

Exemplos de aplicação :
- Se xt é conhecido, então podemos testar se há desvio e se ele é significativo.
P.ex., se usarmos um analisador elemental para determinar C em amostras de colesterol puro,
podemos testar a eficiência desse instrumento.

- Se admitirmos que um certo método usado não apresenta desvio, então podemos estimar xt.
P.ex., se determinarmos o teor de Cu em CuSO4, pode-se dizer se o resultado obtido é ou não
significativamente diferente do valor calculado e assim concluir se o material analisado é ou
não puro (i.é, o valor determinado experimentalmente é significativamente diferente do valor
calculado?)
15

Podemos não detectar qualquer desvio significativo num método até ser melhorado.

P=0.95
/// P=0.05 xt Método original
o desvio é grande mas não significativo porque a
precisão é pobre

Método melhorado
a precisão é melhor e o desvio menor, mas agora o
desvio é significativo

Ex. de um teste-t de uma amostra :

Pretende-se testar a pureza de um lote de CaCO3 por determinações repetidas de Ca. O teor de
Ca do lote é significativamente diferente do valor no CaCO3 puro (40.04% p/p) ?
Result. exper. pa. Ca Dados estatísticos
39.96 x = 40.14
40.22 s=0.237
40.22 ν =5
39.77 P=0.348
40.44
40.23

Neste exemplo temos uma concentração a testar e admitimos um método sem desvio.
Consideremos as hipóteses nula e alternativa :
H0 : µ = 40.04
HA : µ ≠ 40.04

Método 1
t crít (P=0.05, 2T, ν=5) = 2.57 e x = 40.04
os limites de confiança a 95% para x são : xt ± ts n
2.57 x0.237
40.04 ±
6
39.79 < x < 40.28

Q.d., 95 vezes em 100, x cai entre 39.79 e 40.28.

Conclusões :
Não podemos rejeitar a H0.
Os dados dizem que não há evidência de impurezas no CaCO3.
16

Método 2
x − xt
Usando a fórmula tcalc =
s n

40.14 − 40.04
= = 1.03
0.237 6
Comparamos tcalc com tcrít
t(P=0.05,2T, ν =5) = 2.57
tcalc = 1.03

tcalc < tcrít

Conclusão :
Não podemos rejeitar a H0.

3.5. TESTE-t BILATERAL E UNILATERAL

Os métodos atrás descritos testavam a diferença entre 2 médias em qualquer sentido. Quer dizer,
pretendia-se saber se havia ou não diferença significativa entre o resultado experimental e o valor
aceite do material de referência, independentemente do sinal da diferença.
Geralmente, o analista não tem uma ideia préconcebida de se essa diferença é positiva ou
negativa.
O teste aplicado é bilateral (“two-sided” ou “two-tailed”). Simbòlicamente representa-se por 2T.

Há casos em que se pretende testar uma medição em relação a um limite.


P.ex., não nos interessa saber se o etanol no sangue é significativamente diferente do limite legal
de 80 mg/100 ml, mas sim se é significativamente maior que o limite!
Pode-se lidar também com tolerâncias. P.ex., existe um limite superior para o Se em Cu (Se<0.1
ppm) ou um limite inferior para a carne em salsichas (>50% p/p).

H0 : µ= xL xlimite
HA : µ < xL limite inferior
ou HA : µ > xL limite superior

Trata-se então de um teste unilateral (“one-tailed”ou “one-sided”). Simbòlicamente representa-


se por 1T.

O valor de t crítico é diferente consoante se trata de um teste uni- ou bilateral.


17

área 95% Modelo H0


/// área 5%
x cairá nesta área //// com uma
frequência de ~5%

µ = xL xL + 1.65 σ n

i.e.,
⎛ ts ⎞ ⎛ ts ⎞
P ⎜⎜ x < x L + ⎟⎟ = 0.95 ou P ⎜⎜ x L > x − ⎟⎟ = 0.95
⎝ n⎠ ⎝ n⎠
Se
ts
xL < x − ou tobs > tcrít rejeita-se a H0 : µ = xL
n
e aceita-se a HA : µ > xL

Nota: o valor de P associado a um valor de t para um teste bilateral é ½ do valor usado


para um teste unilateral.

Ex. de um teste-t unilateral :


Comprou-se Cu puro com base numa especificação que indica um teor máximo de Se de 1 ppm.
Analisou-se uma amostra 4 vezes e os resultados são a seguir apresentados.
Resultados Estatística
1.01 x =1.11
1.21 s=0.0826
1.12 ν=3
1.09 P=0.0401

Neste caso não queremos saber se há alguma diferença significativa entre os resultados das
análises e o limite fixado mas se os resultados são significativamente maiores que o limite !
Como habitualmente, estabelecemos as hipóteses
H0 : µ = 1
HA : µ >1
Usando a fórmula
n
tcalc = ( x -xL)
s
4
tcalc = (1.11 – 1) tcrít (P=0.05, 1T, ν =3) = 2.35
0.0826
=2.663
tcalc > tcrít ⇒ Rejeita-se H0
Aceita-se HA
18

i.e., com 95% de confiança, podemos dizer que o teor de Se na amostra de Cu está acima do
máximo requerido de 1 ppm.

Se tivesse usado um teste bilateral para este exemplo, os resultados teriam sido totalmente
diferentes.
Neste caso, os limites de confiança para xL são :
ts
xL +
n
com um valor de tcrít (P=0.05,2T, ν =3) = 3.18
0.976 < xL < 1.239

Como a média de 1.11 da nossa amostra cai neste intervalo, para um teste bilateral, é aceite a H0
de que a quantidade de Se não é significativamente diferente do limite de 1 ppm.
É, portanto, uma resposta diferente para uma questão diferente.

É importante que saibamos ser capazes de reconhecer quando se usa um teste uni- ou
bilateral.

3.6. TESTE DE COMPARAÇÃO DE 2 MÉDIAS DE 2 AMOSTRAS COM A MESMA


VARIÂNCIA

São usados nas seguintes circunstâncias :


(a) Quando se aplica 2 métodos analíticos (A e B) a um mesmo material :
- Os resultados são significativamente diferentes ?
Ou x A − x B é significativamente ≠ 0, i.e., há desvio entre os métodos ?
- As precisões são significativamente diferentes ?
(b) Quando se aplica 1 método a dois materiais A e B :
- Os dois materiais são idênticos ? (admitindo concentrações semelhantes do anólito)
H0 : µ = µA = µB (ou µA –µB = 0)
e σ = σA = σB
2 2 2

corresponde a considerar dois conjuntos de resultados como duas amostras separadas do


mesmo modelo (ou da mesma população)

Procedimento a seguir :

Estabelecer uma fórmula para o valor t da amostra.


Como se viu atrás, t é calculado dividindo a diferença entre as médias pelo seu erro padrão
estimado (“standard error” : se)
x A − xB
tcalc =
se( x A − x B )

variância (x A − x B ) = var ( x A ) + var ( x B )


19

var( x A ) var( x B )
= +
nA nB
σ A2 σ B2 ⎛ 1 1 ⎞
= + = σ 2 ⎜⎜ + ⎟⎟
nA nB ⎝ n A nB ⎠
então
1 1
se (x A − x B ) = sp +
nA nB
em que

sp = “pooled s.d.” =
(n A − 1)s A 2 + (n B − 1)s B 2
n A + nB − 2
obtém-se então
x A − xB n A .n B
tcalc =
sp n A + nB

Como no caso do teste de 1 amostra, pode-se ver se


x A – t.se (x A − x B ) < 0 < x + t.se (x A − x B )

ou testar se
tcrít > tcalc para ν=nA+nB-2

ou calcular P a partir de tcalc e ver se P>0.05

A validade do teste-t anterior depende da validade do sp, i.e., depende da hipótese


considerada anteriormente H0 : σA2 = σ B2.
Portanto, deve-se testar primeiro esta hipótese.

Exemplo de um teste-t de 2 amostras :


Dois laboratórios comparam a sua eficiência na determinação de soja numa única amostra de um
produto alimentar. Há desvio significativo entre os laboratórios ?
Resultados (%p/p)
lab A lab B
2.13 2.11
1.88 1.78
1.86 2.18
1.65 2.43
2.00 1.90
1.73 2.17
1.99 2.25
2.23 2.21
x A =1.934 x B =2.129
s A =0.194 s B =0.204
ν =7 ν =7
20

Estabelece-se as hipóteses nula e alternativa :


H0 : µA = µB
HA : µA ≠ µB

Calcula-se tcalc e testa-se se tcrít > tobs .

sp =
(n A − 1)s A 2 + (n B − 1)s B 2
n A + nB − 2

=
(8 − 1)0.0378 + (8 − 1)0.042
8+8−2
= 0.039 = 0.199

1.934 − 2.129 8 x8
tcalc= = 1.970
0.199 8+8

Comparando com o valor de tcrít(P=0.05, 2T, ν =14) = 2.14


tcrít > tobs

Conclusões :
Como tobs < tcrít, não podemos rejeitar a H0.
Podemos dizer que, a um nível de confiança de 95%, não podemos detectar qualquer desvio
significativo entre os métodos.

Recorde-se de que este teste depende da hipótese σA2 = σB2. Como isto não foi testado não
podemos ter a certeza de que as nossas hipóteses são válidas.

3.7. TESTE-F

Além de testar diferenças entre médias para detectar erros sistemáticos, é também importante
comparar métodos no que respeita a erros acidentais.

A comparação dos desvios-padrão, variâncias ou precisão é feita usando o teste de significância


F (de Fischer).
F é a razão entre as variâncias de 2 amostras :
2
s
Fobs = A 2
sB

A comparação pode fazer-se de 2 maneiras :


- o método A é mais preciso que o método B ? (teste unilateral)
- há diferença na precisão dos 2 métodos, ou os desvios-padrão diferem
significativamente ? (teste bilateral)
21

O valor crítico de F depende de ν (νA = nA-1, νB= nB-1), do nível de significância e do tipo de
teste.
H0 : σA2 = σB2

Se a H0 for verdadeira, então o valor esperado de F é 1 ; contudo, a distribuição é assimétrica por


causa dos erros acidentais.

Distribuição F mostrando um nível crítico para P=0.05

⎪ 95% ⎪ 5%
FνΑ,νΒ

No cálculo de F, sA2 e sB2 são colocados de modo a que F>1.

Se Fobs > Fcrít, então a H0 é rejeitada.

Exemplo de um teste-F :
Usemos os mesmos dados do exemplo anterior. Já tínhamos concluído de que não havia
evidência de desvio significativo entre os 2 laboratórios.
Para validar a nossa conclusão temos que testar se há diferença significativa entre as variâncias
dos resultados dos 2 laboratórios (Recorde-se de que, no exemplo anterior, a validade dos nossos
resultados dependia de haver ou não diferença significativa entre as variâncias).

H0 : σA2 = σB2
HA : σB2 ≠ σB2

Calcula-se então a razão das variâncias das 2 amostras e compara-se o resultado com o valor
crítico de F.
2
sA
F= 2
sB
0.04152
= =1.1002 F7,7 = 3.79
0.03774

1.1002 < 3.79

i.e., Fobs < Fcrít

Podemos então dizer que : Pode-se aceitar a H0


Ao nível de confiança de 95%, não há evidência de qualquer diferença
significativa entre as variâncias das 2 amostras.
22

No teste de 2 amostras, aplica-se primeiro o teste-F para se poder seleccionar o teste–t


apropriado.

3.8. TESTE DE COMPARAÇÃO DE 2 MÉDIAS DE 2 AMOSTRAS COM VARIÂNCIAS


DESIGUAIS

O que acontece se sA2 ≠ sB2 ?

y↑ População

Amostra

xA xB x→
⎢ ⎥
Há diferença significativa ?

Faz-se o teste como anteriormente mas ajusta-se ν .

A expressão para calcular t da amostra é a mesma que se indicou atrás :


x A − xB
tcalc =
se( x A − x B )

2 2
sA s
neste caso se (x A − x B ) = + B
nA nB

Podemos ajustar ν de modo a que a amostra com < variância dê < ν.

⎧⎡ ⎛ s A2 sB 2 ⎞
2
⎤ ⎫
⎪⎢ ⎜ ⎟ ⎥ ⎪
⎪⎪⎢ ⎜n + n ⎟ ⎥ ⎪⎪
ν ajustado = inteiro ⎨⎢ ⎝ A B ⎠
⎥ − 2⎬
( 2
⎪⎢ s A n A ) (
2 2
s B nB
2
) ⎥ ⎪
⎪⎢ n + 1 + n + 1 ⎥ ⎪
⎪⎩⎣ A B ⎦ ⎪⎭

Arredonda-se o resultado para o número inteiro mais próximo.

Exemplo :
Fez-se um teste rápido de fenilalanina no sangue, sendo a sua validade comparada com um
método de referência. Os resultados obtidos são indicados na tabela que se segue :
23

Fenilalanina (µmol/l)
Mét. refa. 195 ; 201 ; 201 ; 200 ; 202 ; 206 ; 203 ; 201 ; 197 ; 199 ν =9
(A) x A = 200.5
sA = 3.06
Mét. teste 219 ; 270 ; 259 ; 266 ; 238 ; 258 ; 301 ; 262 ; 296 ; 257 ; ν = 14
(B) 272 ; 207 ; 301 ; 294 ; 240 x B = 262.67
sB = 28.51

Há algum desvio entre os métodos ?

Estabelecemos H0 e HA :
H0 : µA =µB
HA : µA ≠µB

Normalmente faz-se o teste-F para ver se há qualquer diferença significativa entre as variâncias.

Porém, neste exemplo, òbviamente que as variâncias diferem, não sendo pois necessário efectuar
o teste (o valor de F seria 86.8).

Para calcular o valor de t da amostra usamos a fórmula :


x A − xB
tobs =
2 2
sA sB
+
nA nB

200.5 − 262.67 262.67 − 200.5


= = = 8.37
28.512 3.06 2 7.43
+
15 10

Agora é necessário ajustar ν para encontrar o tcrít


⎧ ⎫
⎪ ⎪
⎪ 28.512 3.06 2 ⎪
⎪⎪ + ⎪⎪
ν ajustado = int ⎨ 15 10 − 2
2 2 ⎬
⎪ ⎛ 28.512 ⎞ ⎛ 3.06 2 ⎞ ⎪
⎪ ⎜⎜ 15 ⎟⎟ ⎜⎜ ⎟⎟ ⎪
⎪⎝ ⎠ + ⎝ 10 ⎠ ⎪
⎪⎩ 16 11 ⎪⎭

⎛ 3038.975 ⎞
= int ⎜ − 2 ⎟ = int (14.55) = 15
⎝ 183.6 ⎠
tcrít (P=0.05 , 2T , 15) = 2.13
24

8.37 > 2.13


i.e.
tobs > tcrít

Devemos rejeitar a H0 e aceitar a HA, i.e., com 95% de confiança, podemos dizer que a média do
método-teste é diferente da média do método de referência ou, a um nível de confiança de 95%,
detectamos um desvio entre os métodos.

3.9. TESTE-t EMPARELHADO

Muitas vezes é necessário comparar dois métodos de análise usando vários materiais diferentes
que contêm concentrações diferentes do anólito.

Nesses casos, a comparação das médias e variâncias dos dois conjuntos de dados fornecidos
pelos dois métodos através dos testes de significância atrás descritos seria inapropriada para
testar qualquer desvio entre os métodos. Isto porque qualquer diferença ou desvio entre os
métodos seria provàvelmente encoberto pelas diferenças entre os níveis de concentração do
anólito, i.e., pela variabilidade real das concentrações.

Para ultrapassar este problema, efectua-se simplesmente o teste da diferença entre cada par de
valores, já que as medições estão emparelhadas, i.e., para cada método há uma medição sobre
cada material.

Quando se usa um teste-t emparelhado ?

(i) Para testar um desvio entre 2 métodos analíticos quando se analisa materiais diferentes
por ambos os métodos

Material Mét. A Mét. B Diferença


1 x1 y1 x1 – y1
2 x2 y2 x2 – y2
: : : :
n xn yn xn – yn

ii) Para testar algum desvio entre 2 métodos analíticos quando se analisa 1 material em
vários laboratórios por ambos os métodos

Laboratório Mét. A Mét. B Diferença


1 x1 y1 x1 – y1
2 x2 y2 x2 – y2
: : : :
n xn yn xn – yn
25

Se não houver desvio, então a diferença expectável entre os resultados obtidos pelos 2
métodos é zero, i.e., a estimativa de (xi - yi) = 0.
Então,
H0 : µdif = 0 (µdif é a média da população constituída pelos valores da diferença)

Efectua-se então um teste-t bilateral sobre os dados da coluna da diferença.

Não podemos estimar ou comparar as precisões dos 2 métodos porque só há uma observação
para cada amostra.
Podemos, contudo, estimar o desvio-padrão dos resultados indicados na coluna da diferença.

O valor de t é calculado através de


n
t = xd com ν=n-1
sd
O teste será válido se as diferenças provierem efectivamente de uma única população. Isto
significa que a zona de concentrações para as várias amostras deve ser bastante restrita, para
que σdif seja francamente constante.

O teste-t emparelhado admite que quaisquer erros , acidentais ou sistemáticos, são independentes
da concentração. Se os 2 métodos a comparar são aplicados a amostras cuja zona de
concentrações é muito larga, digamos, concentrações que variam de potências de 10, então essa
hipótese já não é válida e a comparação deve ser efectuada usando o método da regressão.

Exemplo 1:

O teor de CO2 da atmosfera é monitorado ao longo do ano em 8 áreas (rurais e urbanas)


diferentes

%CO2 Média no Média no Diferença


(v/v) na verão inverno
atmosfera
A 0.0386 0.0392 0.0006
B 0.0435 0.0453 0.0018
C 0.0398 0.0410 0.0012
D 0.0379 0.0395 0.0016
E 0.0380 0.0397 0.0017
F 0.0369 0.0358 - 0.0011
G 0.0383 0.0401 0.0018
H 0.0368 0.0389 0.0021
n=8

O teor de CO2 é significativamente maior no inverno ?


H0 : µdif = 0
HA : µdif > 0

Trata-se de um teste unilateral


26

x dif = 0.00121
s dif = 0.00104
ν =7
P = 0.013
0.00121
tobs = 8
0.00104
= 3.294

tcrít = t(P=0.05, 1T, 7) = 1.895


3.294 > 1.895
i.e.,
tobs > tcrít

Deve-se rejeitar H0 e aceitar HA.

Podemos dizer com 95% de confiança que o teor de CO2 na atmosfera é significativamente
maior no inverno do que no verão.

Nota : Usamos o teste-t emparelhado porque esperamos que os níveis de CO2 sejam diferentes
em áreas rurais e urbanas.

Se tivéssemos usado incorrectamente o teste não emparelhado, os nossos resultados teriam


conduzido a um valor diferente para σ e, portanto, seriam falsos. Neste caso,

H0 : µdif = 0
HA : µdif > 0

manter-se-iam, mas tobs e tcrít actuariam de modo diferente.

Usando o teste-t de 2 amostras (comparação de 2 médias), o valor de t seria 1.006 com ν =14.
tcrít (P=0.05, 1T, ν =14) = 1.761

tobs < tcrít


1.006 < 1.761

Aceitaríamos incorrectamente a H0 de que não havia diferença significativa entre os teores de


CO2 da atmosfera no verão e no inverno.

Este é um bom exemplo da importância da escolha do teste apropriado !

Exemplo 2 :

Analisou-se Be em amostras de 12 rochas por dois laboratórios. Um laboratório usa AAS e outro
ICP. Há algum desvio entre os laboratórios ?
27

Be (ppm)
o
N. AAS ICP diferença
1 1.56 1.50 0.06
2 2.31 2.30 0.01
3 1.85 2.00 -0.15
4 0.52 0.50 0.02
5 2.35 2.30 0.05
6 1.80 1.70 0.10
7 2.14 1.90 0.24
8 1.01 0.90 0.11
9 2.19 2.30 -0.11
10 2.68 2.70 -0.02
11 2.71 2.80 -0.09

H0 : µdif = 0
HA : µ dif ≠ 0
ν = 10
x dif = 0.02
s dif = 0.1118
11
tcalc=0.02 = 0.593
0.1118
tcrít(P=0.05,ν=10,2T)= 2.23
tcalc < tcrít

Ao nível de confiança de 95% não existe diferença significativa entre os 2 laboratórios.

4. TRATAMENTO DE DADOS NÃO-NORMAIS (que não seguem a normalidade)

4.1. “Outliers” e dados falsos

Quando efectuamos uma série de medições, muitas vezes há um (ou mais) resultado que
parece ser bem diferente dos restantes. Existe a tendência de rejeitar esse valor anómalo
(“outlier”) antes de calcular x e s, ou antes de aplicar o teste estatístico adequado.
Anotemos o seguinte :

. Quando se aplica o teste de significância assume-se a normalidade dos dados. Então, a


inclusão de “outliers”no tratamento dos dados invalida essa hipótese.

. A estimativa correcta da média depende também da exclusão de dados falsos, p.ex., quando
os números são mal transcritos.

. A exclusão de “outliers” é completamente justificada se pudermos mostrar que eles são


falsos, caso contrário é arriscado e necessita de uma análise cuidadosa (pode ser que o
“outlier” seja o valor correcto).
28

Excluir o “outlier” Incluir o “outlier”

___________________________ ___________________________
Interpretação : tratá-lo como falso Interpretação : não tratá-lo como
falso
O conjunto de dados é bem descrito Se o “outlier” é, de facto, falso,
sem o elemento questionável teremos uma sobrestimativa de σ
e uma estimativa desviada da
média.
Todos os dados são imperfeitamente
descritos pela estatística.

4.2. TESTES DE “OUTLIER” – Q DE DIXON E GRUBB

Há vários testes simples para ajudar a decidir se se deve ou não desprezar um valor estranho.
O mais conhecido é o teste Q de Dixon, em que a diferença entre um valor suspeito e o valor
mais próximo (A) é comparado com a diferença entre o maior e o menor valor (B).

valorsuspeito − valor + próximo


Q=
> valor − < valor

+ + + ++ + + + + +
|_____ A _____|

|________________ B _____________|

É evidente que, quando um único valor estranho é suspeito, ele será o maior ou o menor
valor dos dados.
O valor crítico de Q vem tabelado.
Se Qcalc > Qcrít, então a medição suspeita é rejeitada.

Exemplo:

10 laboratórios analisaram um produto alimentar visando um pesticida (dieldrina). Os resultados


estão indicados na tabela seguinte :
29

Lab Dieldrin Lim inf N


no. (ppb) Dieldrin
1 17 10 1 : -
2 25 12 0 :
3 21 14 0 :
4 11 16 1 : -
5 27 18 0 :
6 28 20 1 : -
7 22 22 1 : -
8 27 24 1 : -
9 27 26 4 : ----
10 27 28 1 : -

x = 23,20
s = 5,554

Os resultados do laboratório 4 parecem ser suspeitos de modo que se procede ao teste Q de


Dixon
11 − 17 6
Q= = = 0.353
28 − 11 17

Qtab (n=10, P=0,05) = 0,530


Qcalc < Qcrít

Este exemplo ilustra claramente uma das limitações dos testes “outlier”. Há realmente 2 valores
suspeitos (11 e 17), de modo que, no cálculo de Q, o valor do numerador talvez seja menor do
que aquele que foi tomado.

A aplicação deste método mostra que, quando n é pequeno, para se rejeitar uma medição, ela tem
de ser muito diferente. Se se suspeita de um valor e se houver quantidade disponível da
substância a analisar, recomenda-se efectuar medições adicionais.

É preciso salientar que o teste de Dixon admite que os dados provêm de uma população normal.
Caso esta hipótese não seja válida, então um valor aparentemente anómalo não será realmente
anómalo.

Um outro teste para “outliers” é o teste Grubb:


A partir de um conjunto de dados ordenados por ordem crescente (1,2,3,…, n), considera-se G
estatístico para a maior e menor observações.
Tomando os dados do exemplo anterior :
> observação :
28 − 23.2
Gn = (xn – x ) /s = = 0.87
5.55
30

< observação :
23.2 − 11
G1 = ( x –x1)/s = = 2.20
5.55

Toma-se o maior dos 2 valores para G, neste caso 2.20.

Gcrít (P=0,05) = 2,29


Gcalc < Gcrít ⇒ não se pode rejeitar o valor suspeito como “outlier”.

O teste Grubb tem também problemas em rejeitar um “outlier” quando há mais que um valor
suspeito.

Existe ainda o teste Tn (ASTM) em que

valorsuspe ito − x
Tn = x e s são a média e o desvio-padrão da série inteira
s
incluindo o valor anómalo

Se o teste estatístico recomenda a retenção do valor suspeito, toma-se a mediana em vez da


média. A mediana tem a virtude de considerar todos os dados sem influência do valor estranho.
É comum efectuar-se poucas medições num trabalho analítico, pelo que a rejeição de 1 valor
influi no cálculo de x e s.

Particularmente, a prática de fazer 3 medições e rejeitar a que se afasta mais das outras 2 deve
ser evitada.

Além disso, demonstra-se que a mediana de uma série de 3 medições fornece muito
provàvelmente uma estimativa mais correcta do valor certo do que a média dos 2 valores após
rejeição arbitrária do valor estranho.

Uma alternativa moderna para o teste de ”outlier” é a estatística robusta que trabalha
acomodando “outliers” em vez de os excluir. Isto pode ser feito minimizando a função de erro
f(xi-µ) em vez do quadrado (xi-µ)2.

Decidir ou não pela rejeição de “outliers” depende da sua aplicação, devendo-se, contudo,
visualizar sempre os dados antes do teste estatístico (p.ex. um histograma).

4.3. TEOREMA DO LIMITE CENTRAL

É de esperar que os erros analíticos estejam normalmente distribuídos devido à acumulação de


muitos erros pequenos e independentes (é óbvio que erros grandes estão associados a dados
falsos, identificáveis, i.e., “outliers”).

Se em vez de, p.ex., se fazer 50 medições repetidas (o que, na prática não é muito usual),
tomarmos 10 amostras de 5 medições e observarmos como as médias das amostras deste
31

tamanho se distribuem em torno de µ, constata-se que estas médias estão mais estreitamente
agrupadas em torno de µ do que no caso das medições originais.
Tal como as medições originais eram uma amostra de uma população ∞ de medições possíveis,
assim estas médias são uma amostra das médias possíveis de 5 medições.

A média desta nova distribuição é igual à média da população original e o desvio-padrão,


chamado erro padrão da média (“standard error of the mean”), é σ/ n em que σ é o desvio-
padrão da distribuição das medições individuais e n o tamanho da amostra (no exemplo
apresentado, n=5).

Outra propriedade da distribuição das médias das amostras, conhecida por Teorema do Limite
Central é :
Se se tomar muitas amostras pequenas de uma distribuição uniforme (i.e., em que cada elemento
tem igual probabilidade de ocorrência), mesmo que a população original não seja normal, à
medida que o tamanho da amostra (i.e., o número de observações) aumenta, a distribuição das
médias das amostras tende para a normalidade.

Este Teorema é muito importante porque muitos testes estatísticos baseiam-se na média e
admitem que é normalmente distribuída.
Como na prática podemos assumir que as distribuições de medições repetidas seguem uma
distribuição pelo menos aproximadamente normal, é razoável admitir que as médias de amostras
bastante pequenas, digamos, mais de 5 amostras, seguem também uma distribuição normal.

Portanto, o resultado do Teorema do Limite Central, combinado com o facto de que os erros
analíticos em medições repetidas parecem ter uma distribuição pelo menos aproximadamente
normal, justificam o uso geral de testes estatísticos que admitem a normalidade.

P↑ uma distribuição uniforme

n→

n=1 n=2 n=3

1000 amostras 500 333

n=4 n=5

250 200
32

Cada um dos histogramas representa a distribuição das médias de amostras de tamanho n. À


medida que o tamanho da amostra aumenta, a distribuição aproxima-se da normalidade.

4.4. TESTES PARA NORMALIDADE

Como vimos, para que os testes de significância e os limites de confiança estimados em


estatística clássica sejam válidos, admite-se que os dados usados pertencem a uma população
normal.
Então é sempre boa prática efectuar um exame visual da distribuição de dados antes de se aplicar
a estatística. Os histogramas e gráficos pontuais são muito úteis para se obter informação sobre
desvios grosseiros.
Geralmente é raro efectuar-se testes formais para a normalidade porque requerem um número
razoàvelmente grande de dados para se obter resultados úteis e, experimentalmente, é mais
comum dispôr-se de um pequeno conjunto de dados.
Descrevem-se, contudo, a seguir, vários testes que podem ser usados.

Teste com papel de probabilidade normal


Este método baseia-se na curva de frequência cumulativa (CFC) da distribuição normal, ou
melhor, o seu integral.
A frequência cumulativa para cada medição é o número de medições ≤ àquela medição.

freq ↑ (A) ↑ % área entre -∞ e x (B)

→ →
0 x variável 0 x variável

A curva cumulativa (B) mostra o tamanho relativo da área a traço grosso comparado com a área
total de (A) à medida que x se move da esquerda para a direita.
Para ver se os dados são consistentes com a hipótese da normalidade, representa-se a curva de
frequência cumulativa num papel gráfico especial chamado papel de probabilidade normal.
Este papel tem uma escala não linear no eixo vertical para converter a CFC sigmoidal (com a
forma de s) numa linha recta.

Exemplo :
Testar a normalidade da seguinte série de dados :
109 ; 89 ; 99 ; 99 ; 107 ; 111 ; 86 ; 74 ; 115 ; 107 ; 134 ; 113 ; 110 ; 88 ; 104
Procedimento :
1o. Ordenar os dados por ordem crescente
2o. Indicar, para cada medição, a frequência cumulativa
3o. Calcular a % da frequência cumulativa através de
33

freq.cumulativa
% freq. cumulativa = x100 n : no. total de medições
n +1
↓ (neste caso n=15)
n+1 e não n por razões matemáticas
o
4 . Se os dados provêm de uma distribuição normal, o gráfico da CFC (em função das
medições) tem a forma de s.
5o. Em papel de probabilidade normal a CFC dará aproximadadmente uma linha recta.

Pode-se construir 1 tabela a partir das etapas 1o., 2o. e 3o. do procedimento

Medição Freq. cumulat. % Freq. cumulat.


74 1 6.3
86 2 12.5
88 3 18.8
89 4 25.0
99 6 37.5
104 7 43.8
107 9 56.3
109 10 62.5
110 11 68.8
111 12 75.0
113 13 81.3
115 14 87.5
134 15 93.8

CFC em papel gráfico normal CFC em papel gráfico de probabilidade normal

A inspecção visual é suficiente para detectar desvios da linearidade.

Um outro teste de normalidade é o teste Kolmogorov – Smirnov (K-S). Este teste baseia-se
também na distribuição da frequência cumulativa. A sua aplicação requer a padronização prévia
dos dados, i.e., o cálculo da variável normal padronizada
zi = (xi – x ) / s
ou
zi = (xi – µ) / σ
conforme se pretenda testar se um conjunto de dados de média x e desvio-padrão s obedece a
uma distribuição normal ou se os resultados provêm de uma população normal específica de
média µ e desvio-padrão σ.
34

Os valores de z são ordenados e representados como uma função de frequência cumulativa em


que o patamar é 1/n (n : no. de medições).
Representa-se também a CFC de uma distribuição hipotética e o teste estatístico consiste em
encontrar a distância vertical máxima entre as curvas experimental e hipotética. Este valor é
comparado com o valor crítico ou tabelado.
Ao contrário dos testes anteriores o teste K-S é um teste de significado numérico – não fica pela
confirmação visual da linearidade.
Para melhor acompanhamento do teste, pode-se consultar a bibliografia indicada.

4.5. MÉTODOS ROBUSTOS E NÃO-PARAMÉTRICOS

Estatística clássica – é usada quando se espera que os dados a serem tratados representem
amostras de populações normais. Geralmente espera-se que os dados analíticos tenham este
comportamento).
Estatística robusta – pode ser usada se os dados seguirem de forma grosseira uma distribuição
normal, i.e., se tiverem uma distribuição unimodal simétrica ; contudo, os dados podem ser
lateralmente pesados (em que a proporção dos valores extremos é um tanto ou quanto maior que
a prevista pela curva normal) ou estar contaminados com “outliers”. Os dados analíticos
comportam-se muitas vezes desta maneira.
Estatística não-paramétrica – não faz absolutamente nenhuma suposição sobre a distribuição
de frequência dos dados. Diz mais respeito ao teste de significância do que à estimativa. Os
testes não-paramétricos são menos poderosos que os testes clássicos (em termos de probabilidade
de rejeitar a hipótese nula quando, de facto, é falsa).

População normal População unimodal e Distribuição arbitrária


simétrica mas lateralmente
pesada ou então inclui
“outliers”
Usa a estatística clássica numa Usa a estatística robusta Usa testes não-paramétricos
amostra tomada dessa
distribuição

Estimativas robustas simples

Há muitos métodos robustos para estimar a média e o desvio-padrão.

Consideremos o seguinte grupo de 7 observações :

5.0 5.4 4.8 5.1 5.3 4.7 15.0 x = 6.47


s = 3.77
35

Uma interpretação óbvia é que o valor 15.0 é um “outlier” e que a média “real” dos dados é ≅ 5.0
e o desvio-padrão “real” é ≅ 0.4.
Os valores da média e especialmente do desvio-padrão são fortemente influenciados pela
presença do “outlier”. Se duplicarmos o valor do “outlier”, x e s aumentam consideràvelmente.
Dispondo os números por ordem crescente teremos :

4.7 4.8 5.0 5.1 5.3 5.4 15.0

A mediana é o valor central 5.1 ; por definição, há igual número de observações antes e depois (a
mediana de um número par de observações é a média dos 2 valores centrais). O valor da mediana
não é afectado se o suposto “outlier” duplicar. Efectivamente a mediana não muda se o último
número tiver qualquer valor acima de 5.1.

Diz-se que a mediana é resistente a “outliers”. É uma estimativa robusta da tendência central e,
neste caso, aproxima-se do que esperamos para o valor “real”.

Estimativa robusta do desvio-padrão :

Um método robusto para estimar o desvio-padrão considera a mediana da diferença absoluta


(MDA). Tomando os dados originais, as diferenças absolutas entre cada valor e a mediana são :

Valores 4.7 4.8 5.0 5.1 5.3 5.4 15.0


Dif. abs. 0.4 0.3 0.1 0.0 0.2 0.3 9.9

Dispondo por ordem crescente :


0.0 0.1 0.2 0.3 0.3 0.4 9.9

A mediana deste grupo é òbviamente 0.3.

Para uma distribuição normal, a MDA está relacionada com o desvio-padrão através de
MDA : 2σ /3

Então, no nosso caso, a estimativa do desvio-padrão é aproximadamente 1.5MDA (σ =3/2MDA),


i.e., 1.5x0.3=0.45. Este valor aproxima-se do verdadeiro valor e é muito menor que s=3.77.

5. CALIBRAÇÃO E MÉTODOS DE REGRESSÃO

5.1. INTRODUÇÃO

A maior parte dos métodos usados em Química Analítica moderna são métodos instrumentais em
que os resultados da análise são avaliados por meio de métodos de calibração.

Uma experiência de calibração típica é realizada preparando uma série de soluções-padrão


contendo quantidades conhecidas do anólito. Para cada solução, o instrumento gera um sinal que
é representado no eixo dos y de um gráfico de calibração, com as concentrações no eixo dos x.
36

Através dos pontos da calibração, obtém-se uma linha recta ou curva que pode ser usada para
determinar o teor do anólito numa solução desconhecida por interpolação (ou extrapolação).
A regressão é frequentemente vista como um método que “traça a melhor recta através de um
conjunto de pontos”, o que é uma grande simplificação pois depende de como os dados foram
recolhidos e do que significa considerar a melhor recta.
Diversas questões de natureza estatística são colocadas por ensaios de calibração :
- Que tipo de linha (recta, curva, parte recta, parte curva) devia obter-se através dos
pontos de calibração ?
- Uma vez que os sinais instrumentais obtidos a partir dos padrões estão sujeitos a erros
acidentais, qual a melhor recta ou curva através desses pontos ?
- Quais os erros associados à concentração do anólito obtida por interpolação ?
- Qual o limite de detecção da análise ?

5.2. REGRESSÃO SIMPLES

Consideremos o caso mais simples da regressão linear em que x é a variável independente ou


controlada (concentração do padrão) e y é a variável dependente (medição do sinal).
As hipóteses básicas da regressão linear são :
(i) existe uma verdadeira relação entre as variáveis y e x que pode ser expressa por
y = α+βx
(ii) os valores de x estão isentos de erro
esta hipótese pode ser aceite desde que os erros cometidos na preparação dos padrões
sejam significativamente inferiores aos erros de medição (o que geralmente acontece na
prática).
(iii) os valores correspondentes de y incluem o erro de medição, i.e.,
yi = α + βxi + εi
onde i está ligado aos pares específicos de x e y, e ε ao erro de medição ; admite-se ainda
que a variação nos erros na direcção –y á a mesma para todos os valores de x, ou seja, do
ponto de vista estatístico, todos os pontos sobre o gráfico têm igual peso ou igual
importância para o cálculo da melhor linha.
(iv) os valores de ε provêm de uma distribuição normal com desvio-padrão σ.

O modelo é a seguir ilustrado :

y Modelo de regressão linear simples

y=α+βx

0 x
37

Embora os centros das distribuições caiam exactamente na linha α+βx, os valores reais
observados (yi) são tomados aleatòriamente da distribuição e, portanto, não caem sobre a
verdadeira linha (excepto por mero acaso).
O objectivo da regressão é estimar a e b a partir dos pares de valores experimentais xi, yi. Os
valores obtidos (a e b) diferem de α e β devido a variações aleatórias na direcção yi.

Na calibração linear, um dos pontos é normalmente o branco, i.e., a solução que contém o
solvente e todos os reagentes adicionados aos padrões e à solução-amostra, excepto o anólito.

É muito comum subtrair-se o sinal do branco dos outros sinais dos padrões antes da
representação do gráfico. Isto não é correcto, pois o ponto correspondente ao branco está
sujeito a erros como os outros pontos pelo que deve ter o mesmo tratamento.
Basta ver que, se considerarmos que aos resultados do branco yb e de um padrão yp, estão
associados erros acidentais eb e ep, o erro acidental em yp-yb não é ep-eb (ter em conta a
propagação de erros acidentais).
Portanto, a subtracção do branco não dá uma estimativa correcta dos erros acidentais no gráfico
de calibração, além de que este pode não passar pela origem.

Para testar a linearidade do gráfico, usa-se frequentemente o coeficiente de correlação r (nome


completo : coeficiente de correlação momento-produto) dado por

∑ [(x
i
i − x )( yi − y )]
r= 1/ 2
xi e yi são pontos do gráfico e x e y as médias de xi e yi
⎧⎡ 2 ⎤⎡ 2 ⎤⎫
⎨ ⎢∑ ( x i − x ) ⎥ ⎢ ∑ ( y i − y ) ⎥ ⎬
⎩⎣ i ⎦⎣ i ⎦⎭

Demonstra-se que –1≤ r ≤+1

y y y

x x x
correlação positiva correlação negativa correlação linear nula

Se r=0 ou próximo de 0, não significa que não há relação entre x e y, apenas não há
correlação linear.

y
r=0, i.e., não há correlação linear entre x e y, mas existe outro
tipo de correlação (neste caso, parabólica)

x
38

Na prática analítica encontramos frequentemente valores de r próximos de 1 (ou –1), mesmo


em gráficos de calibração com erros significativos na direcção –y.
Por outro lado, pontos que se situam claramente sobre uma curva podem conduzir a valores
elevados de ⎜r⎥ .

Portanto, a grandeza de r, considerada isoladamente, é um indicador pobre da linearidade.

O estudo dos resíduos, que se indica mais adiante, é mais adequado para o teste da linearidade.

Deve-se sempre construir a curva de calibração, caso contrário, pode-se erradamente concluir
que há uma relação linear apenas a partir do cálculo de r.

Quando r é muito pequeno, pode-se usar um teste estatístico para saber se r é ou não
significativo. Calcula-se
r n−2
t= 2
n : no. de pares de pontos
1− r

e compara-se com t tomado de uma tabela bilateral e para ν=n-2.

A formulação da H0 é de que não há correlação entre x e y.

Se tcalc> tcrít, a H0 é rejeitada e, portanto, existe uma correlação significativa.

5.3. RESÍDUOS

Consideremos um conjunto de pontos (x,y) (pontos assinalados com cruz) e uma linha ajustada
arbitrária ŷ = a+bx

y
ŷ = a+bx

Para cada valor de x, a linha define o valor “ajustado” de y (ŷ) (os pontos . sobre a linha). A
distância vertical (y - ŷ) entre um ponto y e a linha é designada por resíduo.
39

5.4. LINHA DE REGRESSÃO – MÉTODO DOS QUADRADOS MÍNIMOS

A regressão dá estimativas de α e β através do valor mínimo da soma dos quadrados dos

resíduos, i.e.,
∑ ( yi − yˆ i ) ou ∑ [y − (a + bx )]
2 2
i i
i i
Recorde-se que os valores de xi e yi são constantes e são fixados pela experiência. Aqui a e b são
as variáveis.
Os valores de a e b são obtidos minimizando a soma atrás referida, através do cálculo diferencial,
determinando as derivadas da soma em ordem a a e b e igualando a 0.
Após os cálculos, obtém-se :

∑ [(x − x )( y − y )]
i i
b= i

∑ (x − x ) 2
i
i
a = y − bx

A linha calculada chama-se regressão de y sobre x.

Note-se que x e y não são permutáveis. Se se inverter os papéis na equação anterior, obtém-se
uma linha diferente.
Exemplo :
Calcular a regressão de y sobre x a partir dos seguintes dados :
x y
0 0.0
1 0.9
2 2.2
3 3.1
4 4.1
5 5.3
∑ 15 15.6
∑/6 2.5 2.6

Efectuam-se os cálculos como se segue :

(x − x ) (y − y ) (x − x )
2
(x − x )(y − y )
-2.5 -2.6 6.25 6.50
-1.5 -1.7 2.25 2.55
-0.5 -0.4 0.25 0.25
0.5 0.5 0.25 0.25
1.5 1.5 2.25 2.25
2.5 2.7 6.25 6.75
Σ 17.5 18.5
40

b = 18.5/17.5 = 1.057
a = 2.6-1.057x2.5 = -0.043

Este cálculo é normalmente efectuado através de um pacote estatístico informático.

A linha de regressão que se mostra é descrita pela equação


y = -0.043+1.057x

6
5
4
3
2
1
0
-1 0 1 2 3 4 5 6

É boa política representar os dados num gráfico antes de analisar a regressão.


Os dados podem incluir “outliers” (gráfico à esquerda) ou pontos deslocados (gráfico à direita).

y y

x x

Aplicando a regressão, ambos os exemplos conduzirão a resultados falsos.

Deve-se também graficar os resíduos após a regressão para ver se há qualquer problema
adicional.

5.5. AJUSTE DE BONDADE

Os resíduos são uma amostra aleatória de uma distribuição normal com média zero e desvio-
padrão
∑ (y − yˆ i )
2
i
sy/ x = i

n−2

Note-se que aqui há n-2 graus de liberdade.

Se a linha de regressão for um bom ajuste dos dados, espera-se também que sy/x seja uma
estimativa de σ e os resíduos terão o seguinte aspecto:
41

2 sy/x ------------------------------------
------------------------------------
Resíduo 0 ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯
------------------------------------
-2 sy/x ------------------------------------
y

Se houver falta de ajuste, os resíduos terão o seguinte aspecto :

2 sy/x ------------------------------------
------------------------------------
Resíduo 0 ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯
------------------------------------
-2 sy/x ------------------------------------
y
Devido à relação curvilínea entre y e x (gráfico de calibração curva)

2 sy/x ------------------------------------
------------------------------------
Resíduo 0 ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯
------------------------------------
-2 sy/x ------------------------------------
y
Devido a um “outlier” nos dados de y

2 sy/x ------------------------------------
------------------------------------
Resíduo 0 ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯
------------------------------------
-2 sy/x ------------------------------------
y
Devido ao aumento da variância de y com x (os resíduos tendem a ser maiores à medida que y aumenta)

No exemplo apresentado, os valores ajustados de ŷ são dados por


ŷ = -0.043+1.057x
onde x = 0,1,2,3,4 e 5. Calculando os resíduos (y-ŷ), obtém-se :

x y ŷ y-ŷ (y-ŷ)2
0 0.0 -0.043 0.043 0.0019
1 0.9 1.014 -0.114 0.0130
2 2.2 2.071 0.129 0.0167
3 3.1 3.128 -0.028 0.0008
4 4.1 4.185 -0.085 0.0072
5 5.3 5.242 0.058 0.0034
∑ 0.003 0.0430
42

2 sy/x ------------------------------------
------------------------------------
Resíduo 0 ⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯
------------------------------------
-2 sy/x ------------------------------------
y
Os resíduos devem estrictamente somar zero.
A pequena discrepância que aqui se verifica deve-se a erros de arredondamento.

O desvio-padrão dos resíduos é :


∑ (y i − yˆ i )
2

sy/ x = i
= 0.043 / 4 =0.104
n−2

5.6. ERROS DE a E b E LIMITES DE CONFIANÇA

Em calibração analítica prepara-se um certo número de padrões contendo diferentes


concentrações (xi) do anólito e anota-se as respostas correspondentes (yi) fornecidas pelo sistema
de medição.
Nalguns casos uma calibração feita à mão poderá bastar para estimar a concentração
desconhecida (x) do anólito na amostra a analisar a partir da resposta (y).
Se pretendermos maior rigor, ou se utilizarmos um computador para obter directamente a
concentração, pode-se usar a regressão para estimar a função de calibração y = a+bx.

A regressão permite também encontrar certas particularidades adicionais da calibração,


nomeadamente ligadas às seguintes questões :
• A linha de calibração passa ou não pela origem ?
• A inclinação da linha (em terminologia analítica, sensibilidade) corresponde a um valor
teórico, ou a um outro valor ?
• A calibração é realmente linear ?
• Qual o rigor associado ao valor de x para um anólito de uma amostra em análise ?
• Quantos e quais os valores de x apropriados para construir a curva de calibração ?

Quando tiramos o valor da concentração de um anólito numa solução-amostra por interpolação


na linha traçada a partir do método dos quadrados mínimos, é fundamental que esse valor seja
acompanhado de uma estimativa da variação aleatória.
Quer dizer, deve-se estimar os erros acidentais da intersecção e do declive da linha de
regressão. A questão a colocar é :
Há evidência de que a verdadeira linha não passa pela origem ou que o verdadeiro declive difere
de algum valor teórico ?

Admite-se que a função de calibração verdadeira (y = α+βx) passa pela origem, i.é., α = 0.
43

Se efectuarmos uma calibração com n pares de pontos xi,yi, podemos calcular uma estimativa a
de α. Salvo para casos raros, a será diferente de zero devido a erros nos valores de yi .O que
precisamos de saber é se a é significativamente diferente de zero.
Podemos sabê-lo calculando o desvio-padrão de a, sa, e depois efectuar um teste-t com o
resultado,
t=(a-α)/sa
Neste caso α = 0 (esta é a nossa hipótese nula) e, portanto,
t=(a-0)/sa

O desvio-padrão da intersecção sa é dado por


1/ 2
⎡ ∑ xi 2 ⎤
sa= sy/x ⎢ i ⎥
⎢ n ( x − x )2 ⎥
⎢⎣ ∑
i
i ⎥⎦
Se queremos saber se a sensibilidade do gráfico de calibração , dada pelo declive b, é
significativamente diferente de um certo valor teórico β, é preciso calcular o desvio-padrão sb e
depois efectuar o teste-t respectivo.
O desvio-padrão do declive é dado por
sy/ x
sb = 1/ 2
⎡ 2⎤
⎢∑ ( xi − x ) ⎥
⎣ i ⎦
sa e sb são então usados para estimar os limites de confiança de a e de b :
a + tsa
e b + tsb para n-2 graus de liberdade.

Exemplo :
Consideremos o conjunto anterior de dados
x y
0 0.0
1 0.9
2 2.2
3 3.1
4 4.1
5 5.3
σ 15 15.6
σ/6 2.5 2.6

A linha de regressão calculada era


y= - 0.043+1.057x
A intersecção é significativamente ≠ 0 ?
∑ (x − x ) = 17.5
2
O desvio-padrão dos resíduos já foi atrás calculado, sy/x = 0.104 bem como i
i

∑x
2
Adicionalmente, i = 0 + 1 + .... + 5 = 55
2 2 2

i
44

Substituindo em sa:
1/ 2
⎛ 55 ⎞
sa =0.104 ⎜ ⎟ = 0.075
⎝ 6 x17.5 ⎠
Calculando t a partir de t = (a-α)/sa e como H0 : α = 0

t = ⎜a⎪/ sa = 0.043 / 0.075


= 0.57
É óbvio que este valor de t não é significativo pelo que podemos dizer que não há evidência de
que a linha de regressão não passe pela origem.

Suponhamos que se pretende agora ver se a sensibilidade do gráfico de calibração (o valor de b)


é significativamente diferente do valor da literatura de 0.95, i.é., H0 : β = 0.95.
Para efectuar o teste-t recorre-se à expressão
t = ⎢b-β⎟/sb
Sendo
sb = 0.104 / 17.5
= 0.025
então,
t = (1.057 – 0.95) / 0.025
= 4.28
O valor crítico de t é : tcrit(2T,P=0.05,ν=4) = 2.78

Portanto, existe uma diferença significativa entre a sensibilidade calculada a partir da calibração
e o valor teórico.

5.7. CÁLCULO DE UMA CONCENTRAÇÃO x A PARTIR DE y

Vejamos agora o tamanho do erro cometido ao estimar uma concentração desconhecida do


anólito a partir do sinal do instrumento yA e como ele é afectado por alguns factores tais como a
zona e o espaçamento dos padrões.
Por outras palavras, pretende-se estimar o desvio-padrão sxA e o intervalo de confiança de xA.
Sendo yA a média de m respostas, podemos calcular xA a partir da equação
xA = (yA – a) / b

onde a e b foram obtidos através de uma calibração usando n padrões.


O valor de xA estará sujeito a erro, pois a, b e yA estão todos separadamente sujeitos a erro.
O desvio-padrão de xA é dado por :
1/ 2
⎡ ⎤
sy/ x ⎢ 1 1 ( y A − y )2 ⎥
sxA = + +
b ⎢ m n b 2 ∑ ( x i − x )2 ⎥
⎢⎣ i
⎥⎦

Portanto, os limites de confiança de xA podem ser avaliados a partir de xA ± tsxA, com t escolhido
para um certo nível de confiança e n-2 graus de liberdade.
45

No nosso exemplo da regressão, foram já prèviamente calculados :


sy/x = 0.104 ; b = 1.057 ; n = 6 ; y = 2.6 ; ∑ ( xi − x ) 2 =17.5
i
Para m = 1
1/ 2
0.104 ⎡ 1 ( y A − 2.6) 2 ⎤
sxA = ⎢1 + + ⎥
1.057 ⎣ 6 (1.057 ) 2 17.5 ⎦

O diagrama seguinte mostra o intervalo de confiança de xA correspondente à resposta yA.


Constata-se que os limites de confiança obedecem a uma forma parabólica.

xA x

Algumas generalizações podem ser efectuadas :


• O intervalo de confiança é menor na zona central da calibração e maior nos extremos
(esta particularidade afecta claramente o limite de detecção).
• Pode-se melhorar (reduzindo) o intervalo de confiança de vários modos :
- aumentando n (o número de padrões na curva de calibração) ou m (o número de
medições repetidas cuja média dará o valor de yA).
Nota : o aumento de n afecta também o valor de t
- maximizar ∑ ( xi − x ) para qualquer número de medições na calibração.
i
Isto pode ser feito com apenas 2 padrões, um no ponto zero e outro no topo da curva
de calibração.
Esta estratégia é apropriada se tivermos a certeza de que a calibração é linear em toda
a sua extensão ; porém, o que se ganha é normalmente pouco quando comparado com
um espaçamento uniforme para o mesmo número de medições.

Geralmente é importante ver qual o termo da equação de sxA atrás indicada é dominante e
concentrar na sua redução.

No nosso exemplo, se yA = 0 e m=1, i.é., num dos extremos da zona,


1/ 2
0.104 ⎡ 1 ( 2 .6 ) 2 ⎤
sxA = ⎢1 + + 2 ⎥
1.057 ⎣ 6 (1.057 ) 17.5 ⎦

= 0.098 (1+1/6 +0.34)1/2


46

Aqui, o primeiro termo 1/m é dominante, de modo que inicialmente devíamos pensar em reduzi-
lo, efectuando medições repetidas de yA, para o que se pode aumentar m de 1 até 6 (este aumento
não acarreta trabalho adicional à análise).

Tem pouco interesse aumentar m muito além de 6.


Na prática traça-se uma curva de calibração com pontos mais ou menos uniformemente
distribuídos ao longo da zona de concentrações de interesse.
Se considerarmos 2 conjuntos de pontos nos extremos, não haverá garantia de linearidade da
linha :

y y

x x

5.8. MÉTODO DE ADIÇÃO-PADRÃO

Em vários métodos de análise instrumental, as interferências matriciais obrigam ao uso do


método de adição-padrão. Tomam-se alíquotas iguais da solução-amostra, às quais se adicionam,
excepto a uma, quantidades conhecidas e diferentes do anólito, diluindo em seguida todas ao
mesmo volume. Faz-se a leitura do sinal do instrumento para todas as soluções.

xe conc. ou quant. do anólito adicion.

A linha de regressão é calculada como anteriormente e a concentração xe da solução-amostra é


dada pela intersecção da recta com o eixo dos x (por extrapolação para o ponto do eixo dos x em
que y=0).
a
b=
xe
portanto,
a int er sec ção
xe =
b declive
47

Como a e b estão sujeitos a erros, xe também está sujeito a erro. O desvio-padrão respectivo é
dado por
1/ 2
⎡ ⎤
sy/ x ⎢1 y2 ⎥
sxe = ⎢ + 2 2 ⎥
b n b ∑ ( xi − x )
⎢⎣ i
⎥⎦
e o intervalo de confiança de xe é definido por
xe + tse

Note-se que sxe ≠ sxA pois a quantidade xe não é deduzida de nenhum valor medido de y.

Seria de esperar que o intervalo de confiança fosse maior no caso da extrapolação do que na
interpolação, i.e., que o método da extrapolação fosse mais preciso. Contudo, isto não se verifica
porque a incerteza em xe provém apenas dos erros acidentais da própria linha de regressão, sendo
o valor de y correspondente fixado em zero.

O declive b do método de adição-padrão é normalmente diferente do declive b do gráfico de


calibração convencional para a mesma amostra. A razão dos declives é uma medida do erro
sistemático proporcional produzido pelo efeito de matriz. Este erro proporcional é causado
por erros na calibração derivados de inclinações diferentes das linhas de calibração para a
amostra e para os padrões.

As desvantagens do método de adição-padrão são :


- cada linha de calibração é válida apenas para uma única solução-amostra.
- é necessário dispôr de quantidade suficiente da amostra

5.9. SENSIBILIDADE E LIMITE DE DETECÇÃO

A sensibilidade é o declive do gráfico de calibração.


Como muitas vezes os gráficos apresentam curvatura, deve-se registar a zona de concentrações
para a qual se considera a sensibilidade.
Na prática o conceito de sensibilidade tem valor limitado na comparação de métodos, visto que
depende das condições experimentais.

O limite de detecção (LD) representa a quantidade mínima do anólito que pode ser detectada
através de um sinal do instrumento significativamente maior que o do branco.
Uma definição alternativa para o LD é o valor mais baixo de concentração para o qual o
intervalo de confiança não inclui o valor zero.
O LD é ainda descrito como a concentração do anólito que dá um sinal igual ao do branco (yB)
acrescido de 3 desvios-padrão do branco (sB) :
yB +3sB

O sinal do branco yB pode ser obtido achando a média de várias leituras da solução-branco
(solução que contém todos os reagentes , solvente, etc., excepto o anólito) ou usando o valor da
intersecção a, proveniente da aplicação do método dos quadrados mínimos.
48

Se todas as hipóteses consideradas nestes cálculos forem válidas, os resultados obtidos pelas 2
vias não devem diferir significativamente.
O desvio-padrão pode ser obtido por medições repetidas do branco.

Tomando a intersecção a como medida de yB, sy/x pode ser usado para estimar sB.

yB +3sB = a + 3sy/x
3s y / x
= a +b LD ⇒ LD =
b

5.10. REGRESSÃO PARA AVALIAÇÃO DE ERROS SISTEMÁTICOS

O desvio (“bias”) entre dois métodos analíticos ou entre um valor-teste e um valor de referência,
pode ser avaliado para uma certa concentração do anólito (ou sobre uma zona muito restrita) por
meio de testes-t de significância. No entanto, pretende-se, muitas vezes, uma informação geral
sobre o desvio, cobrindo uma zona larga de concentração do anólito. Analisa-se então uma
série de materiais contendo concentrações diferentes do anólito. Neste caso, não se pode usar o
teste-t emparelhado que atribui o mesmo peso a qualquer diferença entre um par de resultados,
independentemente do valor absoluto medido, i.e., admite que qualquer erro, sistemático ou
acidental, é independente da concentração.

5.11. TIPOS DE DESVIOS (“BIAS”)

Nos diagramas que se seguem, a diagonal representa igualdade entre o valor encontrado e o
esperado. Resultados que mostram desvios estão representados pelas outras linhas.

a) b)
b=1 a=0
a>0 b>1
<0 <1

c) d)
a>0 b=1
<0 a=0
b<1 b≠1
>1 a≠0

e) f)
49

- desvio translacional <> intersecção ≠ 0 gráfico a)


- desvio rotacional <> declive ≠ 1 gráfico b)
- os 2 tipos de desvios podem ocorrer simultâneamente gráficos c), e) e f)
- parte do gráfico tem comportamento próximo da idealidade
mas outro grupo de pontos desvia-se da linha ideal gráfico d)

Estas particularidades podem ser testadas por meio das seguintes hipóteses e meios estatísticos :

Desvio Hipóteses Estatística


Translacional H0 : α=0 H1 : α≠0 t= a/sa
Rotacional H0 : β=1 H1 : β≠1 t= (b-1)/sb

A regressão parece ser o método óbvio para estimar a, b e os seus erros ou desvios-padrão.
Para que as estimativas de α e β sejam significativas, é necessário que as concentrações do
anólito estejam dispersas de modo aproximadamente uniforme sobre toda a zona, i.é, desde o
maior valor até zero.

Se tomarmos apenas uma pequena zona acima de zero, pode ser mais apropriado aplicar o teste-t
emparelhado.

5.12. REGRESSÃO PARA COMPARAÇÃO DE MÉTODOS ANALÍTICOS

Na comparação de 2 métodos analíticos (ou de 2 valores - teste e de referência), através da


regressão não se atribui grande importância ao coeficiente de correlação r para ver se há ou não
erros sistemáticos.
Mesmo que a linha seja ligeiramente curva, r pode ser muito próximo de 1.

Portanto, é mais importante estabelecer os limites de confiança para a e b para testar se a é


ou não significativamente ≠0 e se b é ou não significativamente ≠1.

Há casos em que r não é próximo de 1, mesmo quando b e a não são significativamente ≠s 1 ou


0.
Isto quer dizer que a precisão é muito pobre para um ou para ambos os métodos.

A precisão dos 2 métodos pode ser avaliada por meio do cálculo de s e comparada pelo teste-F.
Na prática, recomenda-se que isto seja feito antes de traçar a linha de regressão de modo a
colocar o método mais preciso no eixo dos x.

Exemplo 1 :
Determinou-se o Pb em 7 materiais de referência certificados de solos por ICP-AES. Os
resultados são a seguir indicados :
50

ppm
solo certificado encontrado
1 0.9 1.4
2 1.3 1.75
3 2.1 2.6
4 4.9 5.75
5 5.3 6.05
6 7.0 7.55
7 9.0 9.15

10

8
encontrado

6
4

0
0 2 4 6 8 10
verdadeiro

a=0.61 sa=0.17 t=3.6 (H0 : α=0)


b=0.984 sb=0.032 t=0.5 (H0 : β=1) tcrít = 2.57

A intersecção é significativamente ≠0, indicando desvio translacional significativo.


O declive não é significativamente ≠1, indicando que não há desvio rotacional significativo.

A comparação através da técnica de regressão baseia-se nas seguintes suposições :

- Os valores certificados são invariáveis, i.é, não têm erro.


Claro que isto não corresponde à verdade, porque os valores, eles próprios, resultam de
medições analíticas.
Porém , como derivam de muitas medições, podemos admitir que os erros nos valores
certificados são pequenos comparados com os obtidos e, portanto, podem ser desprezados.
Nesse caso, em que os valores certificados são tratados como sendo a variável
independente, a regressão não conduz a erros sérios.

- A variância dos valores encontrados não varia com a concentração.


No exemplo dado, pode-se aceitar razoàvelmente esta suposição visto que a zona de
concentrações é demasiado pequena, estando elas espaçadas de cerca de uma ordem de
grandeza.

Exemplo 2 :
Suponhamos que os dados do exemplo anterior eram realmente parte de uma zona mais extensa.
51

ppm
solo certificado encontrado
1 0.9 1.4
2 1.3 1.75
3 2.1 2.6
4 4.9 5.75
5 5.3 6.05
6 7.0 7.55
7 9.0 9.15
8 15.3 16.65
9 31.4 30.55
10 43.0 42.75
11 65.0 69.15
12 132.0 132.15

Através da regressão linear simples temos :

a=0.58 sa=0.45 t=1.29 (H0 : α=0)


b=1.004 sb=0.010 t=0.40 (H0 : β=1) tcrít=2.23

Aqui pode-se concluir que não há desvio significativo de qualquer espécie.

Embora o valor de a seja próximo do obtido a partir do conjunto truncado de dados (exemplo 1),
o desvio-padrão é maior devido à maior variabilidade dos valores de concentração (zona
alargada a valores de concentração mais elevados).

Se se considerar a regressão linear pesada (ver adiante), obtém-se :

a=0.50 sa=0.07 t=7.13 (H0 : α=0)


b=1.011 sb=0.015 t=0.73 (H0 : β=1) tcrít=2.23

A regressão pesada, com um valor de sa mais pequeno, mostra que há desvio translacional
significativo, o que é ignorado pela regressão não-pesada.

5.13. REGRESSÃO LINEAR PESADA

Uma suposição da regressão simples é que a variância dos valores de y registados para um dado
x é constante, i.é, não depende do valor de x. Esta particularidade, chamada homoscedasticidade,
não é verdadeira em muitas aplicações analíticas.

Se a suposição não for válida, os resultados estarão errados?


A resposta é de que tal facto não conduz, em média, a nenhum erro na posição da linha de
regressão. No entanto, os erros-padrão de a e de b podem ser incorrectos, como já se mostrou nos
exemplos anteriores pelo que esta particularidade é importante, quer em calibração quer no
estudo do desvio.
52

y y=α+βx Homoscedástico
A regressão simples é apropriada
para este tipo de aplicação

0
x

y=α+βx Heteroscedástico
A regressão pesada seria apropriada
para este tipo de aplicação

0 x

Dados não homoscedásticos podem ser tratados por meio da regressão pesada. Esta pode ser
efectuada se a variância dos valores de y, var(y), para cada x for conhecida ou puder ser
estimada.
Os pesos são dados por :
wi = 1 / var(yi)

e os coeficientes da regressão pesada são dados por fórmulas análogas às da regressão simples :

Simples Pesada
x = ∑ xi n x w = ∑ wi xi ∑w i
i i i

∑ (x − x )( y − y )
i i ∑ x (x − x )( y − y )
i i i
2

b= i
bw = i

∑ (x − x ) ∑ w (x − x )
2 2
i i i
i i
a = y − bx a w = y w − bw x w

A regressão pesada, incluindo o cálculo de erros-padrão, pode ser executada por meio de pacotes
estatísticos.

Efeito da regressão pesada – Calibração


O desvio-padrão da resposta aumenta com a concentração do anólito ; quando as calibrações se
expandem por duas ou mais ordens de grandeza, o efeito é mais notório.
As linhas de calibração pesada passam através do centróide pesado dos pontos, estando este
muito mais próximo do ponto zero do que o centróide simples, i.e., a regressão é forçada a passar
mais perto dos pontos com menor variância.

Pesos estimados
Em regressão pesada é necessário estimar a var(y) para cada valor de x. Elas podem ser
estimadas a partir de medições repetidas de y. Porém, como realmente sucede em experiências
analíticas, o número de réplicas é pequeno, pelo que as estimativas obtidas serão grosseiras.
53

Felizmente as estimativas, mesmo grosseiras, são muito úteis.

Contudo, é possível melhorar as estimativas amortecendo os resultados por meio de uma relação
ideal entre σy e x.
Por exemplo, pode-se admitir que um gráfico de σy vs x seja geralmente uma linha recta. Pode-
se, portanto, conseguir resultados mais fiáveis usando valores ajustados de sy (assinalados com
um círculo aberto) em vez dos pontos originais (a cruz).

sy
linha ajustada

Note-se que é essencial admitir uma intersecção para esta função, caso contrário o peso (que é o
inverso da variância) em x=0 seria ∞.

Como exemplo, consideremos os dados de calibração prèviamente estudados, só que agora


incluimos uma tabela de pesos baseados na var(y).
Dados :
x y pesos
0 0.0 2500
1 0.9 277.78
2 2.2 100
3 3.1 51
4 4.1 30.864
5 5.3 20.661
σ 15 15.6
σ/6 2.5 2.6

A regressão pesada dá a seguinte linha :


y = -0.008 + 1.036x
Podemos compará-la com a linha de regressão
y = -0.043 + 1.057x

O desvio-padrão da concentração obtida a partir de uma resposta observada y0 é dado por uma
equação análoga à que vimos anteriormente (item.5.7.).
1/ 2
⎡ ⎤
sy/ x ⎢ 1 1 ( y 0 − y )2 ⎥
sc = + +
b ⎢ w0 n b 2 ∑ wi ( xi − x )2 ⎥
⎢⎣ i
⎥⎦

onde s y x , b, y e x são parâmetros estatísticos pesados e w0 é o peso associado a y0.


Os intervalos de confiança a 95% são a seguir indicados.
54

y y

x (C) x (C)
Regressão simples Regressão pesada

Na zona central, os intervalos de confiança são pràticamente os mesmos para ambas as


regressões, simples e pesada.
Porém, com a regressão pesada, o intervalo é muito menor a concentrações baixas e,
naturalmente, a precisão relativa é melhor.

O limite de detecção é também menor no caso da regressão pesada.

6. AVALIAÇÃO DE FONTES DE VARIAÇÃO. ANÁLISE DE VARIÂNCIA (ANOVA)

6.1. INTRODUÇÃO

Os testes-t são usados para comparar as médias de 2 conjuntos de dados.


Porém, frequentemente temos que efectuar comparações múltiplas, ou seja, comparar resultados
de mais que 2 conjuntos de dados. Isto é possível usando a técnica de variância (ANOVA).

Ela permite a análise de medições que dependem de vários factores que actuam
simultâneamente de modo a decidir que efeitos são importantes e como estimá-los.
A questão básica é determinar que parte da variação numa população se deve a causas
sistemáticas e que parte se deve ao acaso.

Na comparação de vários procedimentos analíticos, cada um pode estar sujeito a erro


sistemático. Constituem então um factor controlado.
Além disso, os resultados das determinações analíticas estão sujeitos a erros acidentais.
ANOVA compara ambas as causas de variação com o fim de decidir se o factor controlado tem
ou não efeito significativo.

Exemplos de aplicações da ANOVA :

- teste colaborativo de um método analítico proposto para ser adoptado.


Vários laboratórios são solicitados para analisar amostras tanto quanto possível
idênticas de um material de referência seguindo o método proposto e efectuando um
certo número de réplicas.

A análise estatística serve para distinguir fontes de variação entre laboratórios e


réplicas.
55

Pode-se considerar a variância entre réplicas como efeito do acaso e, portanto, há 1


factor controlado (laboratórios). A ANOVA é unimodal.

Se, em vez de amostras idênticas enviarmos amostras diferentes teremos 2 factores


controlados (laboratórios e amostras) e a ANOVA será bimodal.

- Suponhamos agora que uma das amostras é um pó fino enquanto que a outra é mais
granular que tem de ser moída para obter partículas mais finas antes da análise.
Se um laboratório tiver bom equipamento de moagem, fornece resultados rigorosos
para ambas as espécies de amostras, ao passo que um outro laboratório com
equipamneto inadequado pode produzir resultados correctos para a primeira amostra e
resultados sistemàticamente mais baixos para o material mais grosseiro.
Por outras palavras, o efeito laboratório não é o mesmo para todas as amostras.
Chama-se a isto interacção amostra-laboratório que pode ser detectada por meio da
ANOVA.

- desenvolvimento de um método analítico em que se pretende investigar o efeito de


alguns factores sobre os resultados e o efeito de interacção entre esses factores.

Tome-se, p.ex., o caso de uma análise espectrofotométrica em que se investiga os


efeitos da concentração do reagente A, do reagente B e da temperatura da reacção sobre
o valor da absorvância.
Realizam-se várias experiências a alguns níveis de factores escolhidos seguindo-se a
ANOVA trimodal. Tiram-se conclusões sobre se um factor ou uma combinação de
factores (interacção) influencia significativamente o sinal.
Uma vez sabido que factores são relevantes, pode-se optimizar os respectivos valores.

6.2. A ARITMÉTICA DOS CÁLCULOS ANOVA

Como se referiu atrás, ANOVA é uma técnica geral e potente que, num conjunto de dados
experimentais, separa as contribuições para a variação total e testa a sua significância.
Quer dizer, representa um meio de determinar os efeitos separados de diferentes fontes de
variação.
Cada uma das fontes de variação (uma das quais é invariàvelmente o erro de medição
experimental) é caracterizada por :

i) uma soma de quadrados, i.e., a soma de um número de termos quadráticos


representando a variação em questão
ii) o número de graus de liberdade
iii) um quadrado médio que é i) : ii) e pode ser usado para testar a significância da
contribuição da variação por meio do teste-F

A soma dos quadrados e o número de graus de liberdade da variação total são,


respectivamente, as somas dos quadrados e dos números de graus de liberdade das várias
fontes de variação.
Esta propriedade aditiva simplifica grandemente os cálculos.
56

6.3. ANOVA EM REGRESSÃO

Muitas vezes é útil estudar a regressão em termos de ANOVA.

A variância do conjunto original dos valores de yi é


∑ ( yi − y ) (n − 1)
2

i
A variância residual, i.e., a variação devida aos desvios da linha de regressão é
∑ ( yi − yˆ i ) (n − 2)
2

i
A diferença entre elas, que corresponde à variância devida à regressão, é a variância dos valores
de ŷ. Por outras palavras, é a parte da variação devida à relação entre y e x, ou ao ajuste da
equação aos pontos de calibração
∑ ( yˆ i − y )
2

i
com 1 grau de liberdade.

Esta informação pode ser sumarizada na tabela normal ANOVA :

Fonte de variação ν SS MS F
Regressão 1
∑ ( yˆ − y) MS1 MS1/MSR
2
i
i
Residual n-2 ∑ (y − yˆ i ) MSR
2
i
i
Total n-1 ∑ (y − y)
2
i
i

SS : soma dos quadrados (“square sum”)


MS : quadrado médio (“mean square”) que dá uma estimativa da variância

Trata-se de uma ANOVA unimodal, havendo apenas uma fonte de variação em adição ao erro
experimental.

A significância da correlação pode ser testada usando o teste-F,i.e., calculando


F1,(n-2) = MS1/MSR

Geralmente os valores de F calculados são muito maiores que os valores críticos.


A razão
SS (regressão)
R2 =
SS (total )

denominada coeficiente de determinação ou coeficiente de correlação múltipla, representa a


proporção da variância atribuída à regressão e pode ser usada como um indicador grosseiro da
pertinência da regressão.
Quando os pontos experimentais caem perto da linha recta, o valor de R2 aproxima-se da
unidade.
57

Deve-se evitar uma sobreinterpretação de R2, p.ex., quando se julga que os pontos experimentais
representam uma relação linear (ver exemplo que se dá adiante).

6.4. FALTA DE AJUSTE EM CALIBRAÇÃO

Uma das tarefas importantes em química analítica é saber se o gráfico de calibração é linear.
Seria muito útil se houvesse um teste estatístico de linearidade mas, em estatística, não há
resposta directa a essa questão. Contudo, se dispusermos de dados suficientes, podemos ser
capazes de responder a uma outra questão relacionada, nomeadamente :
Há falta de ajuste (“lack of fit”) significativa ao modelo linear ?

Consideremos o modelo linear de regressão :


yi = α+βxi+εi

Seja σ2 a variância de εi.


Se não houver falta de ajuste, sy/x será uma estimativa de σ.

Similarmente, podemos testar a falta de ajuste comparando sy/x2 (que é estimado durante a
regressão como sendo ∑ ( y i − yˆ i ) (n − 2) ) com uma estimativa independente de σ2, que pode
2

i
ser obtido através de réplicas de valores de y.

Na prática há um pequeno problema porque as duas estimativas não são completamente


independentes.
Suponhamos que temos m valores repetidos de y para cada x :

SS ν
x1 y11 y12 ……………... y1m ∑ (y − y1 ) m-1
2
1i
i
x2 y21 y22 ……………... y2m ∑ (y − y2 ) m-1
2
2i
i
x3 y31 y32 ……………... y3m ∑ (y − y) m-1
2
3i
i
: : : : : :
: : : : : :
: : : : : :
xn yn1 yn2 ……………... ynm ∑ (y − yn ) m-1
2
ni
i
TOTAL ∑ (y − yj) n(m-1)
2
ji
i
58

A estimativa independente de σ (MSE) é :


∑∑ (y
j i
ji − yj )
2

MSE =
n(m − 1)

que se chama quadrado médio do erro puro “pure error mean square”.
Para estimar o quadrado médio da falta de ajuste, considera-se o quadrado médio do resíduo :
∑∑ (y ji − yˆ j )
2

j i

nm − 2

(existem nm observações, i.é., m réplicas de n medições)


Porém, esta grandeza contém uma contribuição do erro puro e, portanto, não é independente de
se2.
Temos então a seguinte tabela ANOVA :

Fonte Soma de quadrados ν MS F


Residual
SSR = ∑∑ R ji − Rˆ j ( )
2 nm-2
j i

Erro puro SSE = ∑∑ (R ji − R j ) n(m-1) MSE


2

j i

Falta de ajuste Por diferença n-2 MSL MSL


MSE

Compara-se o valor de F calculado com o valor tabelado para P=0.05, ν=n-2 e n(m-1).

Teste da falta de ajuste :


Estima
σ2

Cálculos SSE _____
a partir dos ⎯→ ν=n(m-1)
⎯ ⎯→ MSE

dados (x,y) ←
⎯⎯
↓ ↓ Comparar
através
de F
SSR SSL=SSR-SSE
ν=nm-2 ⎯→ ν=n-2
⎯ ⎯→ MSL
⎯ ←
⎯⎯


Estima σ2
Só se o modelo linear é
correcto
59

Exemplo : ANOVA para falta de ajuste

Considere os seguintes dados de calibração :


x y
0 1.2 -0.5
1 10.6 11.2
2 19.4 18.8
3 30.8 31.4
4 38.3 36.6
5 46.2 49.3
6 55.1 54.9
7 62.0 62.7
8 69.6 70.1
9 79.1 78.6
10 85.2 84.4

A regressão linear conduz ao gráfico que acima se mostra (em que não há qualquer indicação
nítida de falta de ajuste) e às tabelas ANOVA seguintes :

x y SS ν Fonte ν SS MS F
(erro puro)
0 1.2 -0.5 1.445 1 Regressão 1 15602 15602 4303
1 10.6 11.2 0.180 1 Residual 20 72.52 3.626
2 19.4 18.8 0.180 1 Total 21 15675 746.42
3 30.8 31.4 0.180 1
4 38.3 36.6 1.445 1
5 46.2 49.3 4.805 1 Fonte ν SS MS F
6 55.1 54.9 0.020 1 Falta de ajuste 9 63.45 7.05 8.55
7 62.0 62.7 0.245 1 Erro puro 11 9.07 0.824
8 69.6 70.1 0.125 1 Residual 20 72.52 3.626
9 79.1 78.6 0.125 1
10 85.2 84.4 0.320 1
∑ 9.07 11

R2 = SS(Regressão)/SS(Total) = 15602/15675 = 0.995

O valor crítico de F é
F(P=0.05,ν1=9, ν2=11) = 2.90

Pode-se, portanto, dizer que há falta de ajuste significativa.

O exame do gráfico dos resíduos seguinte dá uma indicação de uma calibração não linear.
Note-se que a variância que é contada para a regressão, dada pela razão R2 = 0.995, podia ser
incorrectamente tomada como indicador de uma relação linear!
60

Resíduos

Conc

Considerações sobre o número de pontos a tomar no gráfico relativo à falta de ajuste :

. Um estudo da falta de ajuste justifica tomar mais pontos do que os normalmente requeridos
para a calibração , devendo ainda estar uniformemente espaçados quanto à concentração.
Não se pode indicar exactamente o número de pontos necessário, mas sugere-se um mínimo de
8 valores de x.

. A duplicação é uma prática efectiva. Obtêm-se melhores resultados efectuando duplicações de


valores de x, em vez de usar mais medições (m>2) a partir de menos valores de x.

. As réplicas devem ser repetições reais, i.é., o procedimento total deve ser repetido para cada
medição.
Pode-se usar um esquema de desenho aleatorizado para a calibração. Medem-se as respostas
uma vez para o conjunto de padrões de calibração numa ordem aleatória ; em seguida,
repetem-se as medições uma segunda vez numa ordem aleatória diferente.

6.5. ANOVA UNIMODAL

A aplicação mais simples da ANOVA é aquela em que há só 1 factor (controlado ou aleatório)


de variância σ12 para além do erro acidental de medição de variância σ02 .

Para ilustração, consideremos n titulações de uma solução efectuadas por m analistas.


Há, pois, 1 única fonte de variação (diferentes analistas) em adição ao erro acidental inerente ao
método, e pretende-se avaliar a grandeza da variância dessa fonte.

Apresenta-se a seguir os dados para m analistas, cada com n observações. Haverá um total de
N=mn observações classificadas em m grupos de n observações cada.
61

Grupo Observações Média do grupo


1 x11 x12 x13 …. x1j …. x1n 1
x1 = ∑ x1 j
n j
2 x21 x22 x23 …. x2j …. x2n x2
: : : : : : : : :
: : : : : : : : :
i xi1 xi2 xi3 …. xij …. xin 1
xi = ∑ xij
n j
: : : : : : : : :
: : : : : : : : :
m xm1 xm2 xm3 …. xmj …. xmn xm

Grande v 1
média X = ∑ xi
m i
1 ⎛1 ⎞
= ∑ ⎜ ∑ xij ⎟

m i ⎝n j ⎟

1
= ∑∑ xij
mn i j

x ij : observação j do grupo i
X : grande média das N=mn observações

(x ij − X ) = (xij − xi ) + (xi − X )
Elevando ambos os membros ao quadrado e considerando o ∑ em i e em j :
∑∑ (xij − X ) = ∑∑ (xij − xi ) + n∑ (xi − X )
2 2 2

i j i j i

Soma total dos quadrados = soma dos quadrados dos desvios dentro do grupo + soma dos
quadrados dos desvios entre grupos

SST =SSW +SSB W : “within” ; B : “between”

Tabela ANOVA para m grupos de n observações

Fonte de SS ν MS MS é uma
variação estimativa de
Entre grupos SSB=n ∑ ( xi −X ) 2 m-1 MSB=SSB/m-1 σ02 + nσ12
i
Dentro grupos SSw= ∑∑ (xij − xi ) N-m MSW=SSW/N-m σ02
2

i j

Total SST= ∑∑ (xij − X ) N-1 MST=SST/N-1


2

i j
62

A variância total contém contribuições devidas às variâncias dentro dos grupos assim como
variâncias entre grupos.
O objectivo da ANOVA é determinar se a variância entre grupos é significativamente maior que
a variância dentro dos grupos.
Quer dizer, ANOVA diz se as diferenças entre um conjunto de médias são significativamente
maiores que as esperadas a partir da variância do erro de medição.

Se as médias são significativamente diferentes, ANOVA fornece um método para estimar


separadamente σ12, a variância das médias da população dos grupos de observações, e σ02, a
variância do erro de medição.

A última coluna da tabela anterior mostra que, para exprimir o efeito da variância entre grupos
sobre uma única observação, é necessário adicionar à variância dentro de um grupo, uma
variância devida ao efeito de grupo.

Porém, uma vez que o efeito de grupo é determinado considerando a média de n observações, a
variância de uma única observação é nσ12, se σ12 for a variância da média dos grupos.
Assim, MSB é uma estimativa de σB2 dado por
σB2=σ02 + nσ12

Por meio do teste-F pode-se determinar se σ12 é ou não significativo.

De acordo com a H0, σ12=0 e σB2=σ02, ou seja, todas as amostras provêm de uma população de
média µ e variância =σ02.

A razão Fm-1,N-m = σB2/σ02 é comparada com tabelas de F ao nível de confiança desejado para
determinar se a razão é significativa.
Se o teste-F provar que σ12 tem um valor significativo, este pode ser estimado quantitativamente
usando a equação atrás descrita
σB2=σ02 + nσ12

Há fórmulas que simplificam os cálculos das somas dos quadrados e que estão sumarizadas na
tabela seguinte :

Fonte de variação SS ν
Entre grupos ∑T m-1
2
i n −T 2
N
i
Dentro dos grupos Por subtracção Por subtracção
TOTAL ∑∑ xij − T 2 / N N-1
2

i j

em que
N=nm (n observações ou medições e m grupos) : no. total de medições
Ti : soma das medições no grupo i
T : soma de todas as medições, grande total
63

Exemplo :
Pretende-se investigar a influência das diferentes condições de armazenamento sobre
a estabilidade de um reagente fluorescente. Os resultados apresentados referem-se a medições
efectuadas por um método de fluorescência molecular em soluções de igual concentração (os
valores dos sinais de fluorescência vêm em unidades arbitrárias). Para cada amostra (grupo),
fizeram-se 3 medições.
Condições Medições Média
A Recentemente preparada 102 ; 100 ; 101 101
B Guardada durante 1 h no escuro 101 ; 101 ; 104 102
C Guardada durante 1 h a meia luz 97 ; 95 ; 99 97
D Guardada durante 1 h sob luz intensa 90 ; 92 ; 94 92
X 98

A tabela mostra que os valores médios para as 4 amostras (ou grupos) são diferentes. ANOVA
testa se essas diferenças podem ser atribuídas apenas a erros acidentais.
Para simplificar os cálculos, pode-se subtrair o número 100 de todas as medições :

Ti Ti2
A 2 0 1 3 9
B 1 1 4 6 36
C -3 -5 -1 -9 81
D -10 -8 -6 -24 576
T = -24 702 = ∑ Ti
2

n=3 m=4 N=12

∑∑ x
2
ij = 4+1+1+1+16+9+25+1+100+64+36
i j

=258

Fonte de variação SS ν MS
Entre-amostras 702/3 – (-24)2/12 = 186 4 –1 =3 186/3 =62
Dentro –amostra 210 – 186 = 24 8 24/8 =3
TOTAL 258 – (-24)2/12 = 210 12 – 1=11

F3,8 = 62/3 = 20.7 F(3,8 ;P=0.05 ; 1T) = 4.066

Fcalc > Fcrít ⇒ a H0 é rejeitada, i.e., as médias das amostras diferem significativamente, ou seja,
as diferentes condições de armazenamento influem na estabiliddae do reagente analisado.

Para calcular a variância das médias das amostras, i.e., a variância devida às diferentes condições
de armazenamento :
62 = 3 +3σ12 ⇒ σ12 = 59/3 = 19.7
64

6.6. ANOVA BIMODAL

Neste tipo de ANOVA cada medição xij é classificada de acordo com 2 factores.

Forma geral da tabela para ANOVA bimodal

Bloco Tratamento
1 2 …. j …. c Total fila
1 x11 x12 …. x1j …. x1c T1.
2 x21 x22 …. x2j …. x2c T2.
: : : …. : …. : :
: : : : : :
i xi1 xi2 …. xij …. xic Ti.
: : : …. : …. : :
: : : : : :
r xr1 xr2 …. xrj …. xrc Tr.
TOTAL T.1 T.2 …. T.j …. T.c T=grande
coluna total

Há N medições para c níveis de tratamentos e r blocos, i.e., N=cr

O princípio do método é idêntico ao da ANOVA unimodal.


As fórmulas para o cálculo da variação causada pelas 3 fontes – entre tratamentos, entre blocos e
erro experimental são a seguir indicadas.

Fonte de variação SS ν
Entre-tratamento c c-1
∑T
2
.j r −T 2 N
j =1

Entre-bloco r r-1
∑T
i =1
i.
2
c −T 2 N

Resíduo (erro experimental) Por subtracção Por subtracção


TOTAL ∑∑ xij − T 2 / N N-1
2

i j

Exemplo :
Pretende-se comparar a % de eficiência de diferentes agentes quelatantes na extracção de iões
metálicos a partir de soluções aquosas. As experiências foram realizadas durante 3 dias tendo-se
preparado, por dia, uma solução recente do ião metálico e feito a extracção com cada um dos
agentes quelatantes tomados numa ordem aleatória. Os resultados obtidos foram os seguintes :
Agente quelatante
Dia A B C D
1 84 80 83 79
2 79 77 80 79
3 83 78 80 78
65

Nesta experiência, o uso de agentes quelatantes é um factor controlado uma vez que os agentes
quelatantes são escolhidos pelo analista. O dia em que se realiza a experiência apresenta variação
não controlada causada por variações de temperatura e pressão do laboratório, bem como por
ligeiras diferenças na concentração do ião metálico, i.e., o dia é um factor aleatório.

ANOVA pode ser usada para testar :

- se os diferentes agentes quelatantes têm eficiências significativamente diferentes

- se a variação de dia para dia é significativamente maior que a variação devida ao erro
acidental da medição e, em caso afirmativo, estimar a sua variância.

Os cálculos podem ser simplificados como em ANOVA unimodal, subtraindo um número


arbitrário de cada medição (neste ex. o número 80).

Tratamento Total fila Ti. Ti.2


Bloco A B C D
Dia 1 4 0 3 -1 6 36
Dia 2 -1 -3 0 -1 -5 25
Dia 3 3 -2 0 -2 -1 1
Total coluna T.j 6 -5 3 -4 0=T 62= ∑ Ti.
2

i
T.j2 36 25 9 16
____________ ____________
∑ T. j = 86
2

r=3 c=4 N=3x4=12


∑∑ xij = 42+32+1+1+32+1+32+22+22 =54
2

i j

Fonte de variação SS ν MS
Entre-tratamento 86/3 – 0/12 = 28.67 4-1 =3 28.67/3 = 9.56
Entre-bloco 62/4 – 0/12 = 15.5 3-1=2 15.5/2 = 7.75
Resíduo 54 – (28.67+15.5) = 9.83 11-(3+2)=6 9.83/6 = 1.64
Total 54 – 0 =54 12-1=11

Se não houver diferença entre as eficiências ou dias, então os 3 quadrados médios darão uma
estimativa de σ02, a variância da variação aleatória devida ao erro experimental.

Usa-se o teste-F para ver se as estimativas das variâncias diferem significativamente.

- Comparando MS entre-tratamento com MS do resíduo :


9.56
F3,6 = =5.83 F(3,6; P=0.05; 1T) = 4.76
1.64
66

Quer dizer, há diferença significativa entre-tratamento, i.e., entre a % de eficiência dos


agentes quelatantes.
- Comparando o MS entre-bloco e o MS do resíduo :
7.75
F2,6 = = 4.76 F(2,6; P=0.05; 1T) = 5.143
1.64

Não há, portanto, diferença significativa entre os resultados obtidos entre dias.

Apesar de tudo, o MS entre-bloco é consideràvelmente maior que o MS do resíduo, pelo que, se


a experiência não fosse realizada por bloco, os 2 efeitos seriam combinados para estimar o erro
experimental e, provàvelmente, a experiência não teria sido capaz de detectar diferenças
significativas entre-tratamento.

Se a diferença entre dias tivesse sido significativa, ter-se-ia que considerar efeitos de outros
factores como a temperatura, pressão, preparação da solução, etc.

Demonstra-se que o MS entre-bloco dá uma estimativa de


σ02 + cσb2 em que σb2 é a variância da variação aleatória dia-dia

Sendo o MS do resíduo uma estimativa de σ02,


7.75 = 1.64 + 4σb2 ⇒ σb2 = 1.53

Anàlogamente,
9.56 = 1.64 + 3σt2 ⇒ σt2 = 2.64 σt2 : variância da variação entre-tratamento

6.7. INTERACÇÃO

Consideremos o caso mais simples em que temos 2 factores, cada a 2 níveis :


factor A – níveis a1 e a2
factor B – níveis b1 e b2

Suponhamos que os resultados para as combinações a1b1, a1b2 e a2b1 são 10, 15 e 12.

FactorA
a1 a2
Factor B b1 10 12
b2 15 ?

Se não houver variação aleatória, o efeito de mudar o factor do nível b1 para b2 (com o factor A
ao nível a1) é 5.
Se os efeitos forem aditivos, então o efeito de mudar B do nível b1 para b2 (com A ao nível a2)
devia também ser 5, pelo que o valor final em ? deverá ser 17.
Note-se que o efeito de mudar A do nível a1 para a2 é então 2, independentemente do nível de B.

Dum modo geral se os resultados são os indicados na tabela a seguir


67

FactorA
a1 a2
Factor B b1 y1 y2
b2 y3 y4

e estão livres de erros acidentais, então


y2 – y1 = y4 – y3
desde que os efeitos sejam aditivos.

Se os efeitos não forem aditivos dizemos que há interacção entre A e B, porque uma dada
combinação de A e B conduz a um valor mais elevado do que o esperado.
Gràficamente teremos

result. nível de A=a1 result. nível de A=a1

nível de A=a2 nível de A=a2

b1 b2 b1 b2
nível B nível B

efeitos que são aditivos efeitos que interactuam


linhas //s linhas não //s

A fim de estimar o erro acidental deve-se efectuar réplicas de medições para cada combinação
de factores.
O método através do qual as somas dos quadrados do erro acidental e da interacção podem ser
separadas é ilustrado no exemplo seguinte.

Exemplo :
Pretende-se investigar se uma solução pode ser usada como padrão numa determinação
espectrofotométrica. Para tal mediu-se o valor da absorptividade molar ε de 3 soluções com
concentrações diferentes a 4 valores diferentes de comprimento de onda. Para cada combinação
de C e λ efectuaram-se 2 réplicas, tendo a ordem por que se fizeram as medições sido
aleatorizada. Os resultados obtidos são a seguir apresentados (para simplificar os cálculos, os
valores medidos foram multiplicados por 100) :
λ (nm)
C (g/l) 240 270 300 350
0.02 94 ; 96 106 ; 108 48 ; 51 78 ; 81
0.06 93 ; 93 106 ; 105 47 ; 48 78 ; 78
0.10 93 ; 94 106 ; 107 49 ; 50 78 ; 79

Calcula-se o total em cada célula (Tij)


94+96=190 106+108=214 48+51=99 78+81=159
93+93=186 106+105=211 47+48=95 78+78=156
93+94=187 106+107=213 49+50=96 78+79=157
68

λ (nm)
C (g/l) 240 270 300 350 Ti. Ti.2
0.02 190 214 99 159 662 438244
0.06 186 211 95 156 648 419904
0.10 187 213 96 157 656 430336
T.j 563 638 293 472 T=1966 1288484
T.j2 316969 407044 85849 222784 ∑ Ti.
2

∑T
2
.j =1032646
j

Como anteriormente, calcula-se as somas dos quadrados entre filas, entre colunas e total.

Em ANOVA bimodal subtraía-se uma quantidade T2/N do primeiro termo da soma dos
quadrados.
Aqui é necessário subtrair o termo T2/nrc.

Neste exemplo,
n=2 : no. de medições-réplicas em cada célula
r=3 : no. de filas
c=4 : no. de colunas

Por vezes chama-se a esse termo, correcção, e representa-se por C.


C= T2/nrc = 19662/2x3x4 = 161048.16

∑T
2
Soma dos quadrados entre filas : i. /nc – C =
i

ν=r-1=3-1=2 = 1288484/2x4 – 161048.16


= 12.34

∑T
2
Soma dos quadrados entre colunas : .j /nr – C =
j

ν=4-1=3 = 1032646/2x3 – 161048.16


= 11059.506

Soma total dos quadrados : ∑xijk2 – C =


ν=nrc-1=24-1=23 = 172138 – 161048.16
= 11089.84

∑xijk2 : soma dos quadrados das medições individuais (=942+962+1062+1082+482+512+…)


∑xijk : réplica k na fila i e coluna j
69

A variação devida ao erro acidental, geralmente chamada variação residual, é estimada a partir
da variação dentro da célula, i.e., a variação entre réplicas.

Soma dos quadrados dos resíduos : ∑xijk2 - ∑Tij2 /n =


ν=(n-1)rc=(2-1)x12=12 = 172138 – 344244/2
= 16

A soma dos quadrados de interacção e ν respectivo podem ser obtidos por subtracção.

Fórmulas para ANOVA bimodal com interacção

Fonte de variação SS ν MS
Entre-filas ∑T r-1=2 12.34/2=6.17
2
i. /nc – C = 12.34
i
Entre-colunas ∑T c-1=3 11059.506/3=3686.502
2
.j /nr – C =
j

11059.506
Interacção Por subtracção Por subracção 1.994/6=0.3323
=11089.84- =23-(2+3+12) = 6
(12.34+11059.506+16)
= 1.994
Resíduo ∑xijk2 - ∑Tij2 /n = 16 (n-1)rc 16/12=1.3333

TOTAL ∑xijk2 – C = 11089.84 nrc-1=23

Cada fonte de variação é comparada com a variância residual para testar a sua significância.

- Interacção
F= 0.3323 / 1.3333
A interacção não é significativa

- Entre-colunas (entre-λ)
F = 3686.502 / 1.3333 = 2765 F(3,12 ; P=0.05 ; 1T) = 3.49
Esta variação é significativa o que era de esperar uma vez que a absorvância depende
do λ.

- Entre-filas (entre-concentrações)
F= 6.17 / 1.3333 = 4.63 F(2,12 ; P=0.05 ; 1T) = 3.885
Esta variação também é significativa, i.e., a absorvância depende da concentração e,
portanto, a solução não serve como padrão de absorvância.

Se representarmos num gráfico ε em função da concentração e unirmos os pontos com o mesmo


λ, obtém-se :
70

ε 270 nm
100 240 nm
350 nm
300 nm
50

0.02 0.06 0.10 C(g/l)

Este gráfico ilustra os resultados da análise :


- as linhas são //s (não se cruzam)
- as linhas não são bem horizontais, indicando que a ε varia com a concentração C.
Nesta experiência, ambos os factores, i.e., λ e C são factores controlados.

ANOVA tem então aplicação importante em Química Analítica para investigar os efeitos de 2 ou
mais factores controlados e suas interacções na optimização de experiências.

7. DESENHO DE EXPERIÊNCIAS

7.1. A IMPORTÂNCIA DO DESENHO EXPERIMENTAL

A análise estatística é muito mais efectiva se se souber de antemão qual a informação requerida
para se poder planear e desenhar a experiência que irá fornecer a referida informação.
A análise estatística decorre então do desenho experimental que tiver sido seleccionado,i.e., ela é
conhecida antes de obter os resultados.

Por exemplo, o tipo de ANOVA a aplicar a um conjunto de experiências é escolhido tendo em


conta a avaliação estatística que se tem em mente.

Experiências em que vários factores são analisados, variando-os de acordo com possíveis
combinações entre si, permitem estimar efeitos simultâneos de 2 ou mais variáveis.
Estes efeitos de interacção podem não ser detectados pelo método clássico de experimentação
em que se faz mudar as variáveis, uma de cada vez, mantendo-se as outras constantes.
Como se pode prever, se o número de factores envolvido é grande, o processo torna-se
complicado em termos de desenho experimental e de análise de variância.

Um factor é qualquer parâmetro que pode afectar o valor de uma experiência.


Por exemplo, na experiência apresentada em 6.4. do estudo da estabilidade de um reagente
fluorescente guardado sob diferentes condições através da medição da intensidade de
fluorescência, o factor considerado são as condições de armazenamento.
Este factor é um factor controlado na medida em que pode ser alterado à vontade pelo analista.
Outro exemplo : pretende-se testar a pureza de um reagente, tomando-o de diferentes locais de
um recipiente. Aqui, o factor de interesse é o local do recipiente donde é retirado o reagente.
Trata-se de um factor aleatório, porque as amostras são colhidas ao acaso, i.e., um factor não
controlado.
71

Ambos os factores mencionados são qualitativos, uma vez que os seus “valores” possíveis não
números.
Se um factor é caracterizado por um valor numérico, ele é quantitativo como por exemplo a
temperatura, a concentração, o pH, etc.

Os diferentes valores que um factor pode tomar são conhecidos por níveis ou tratamentos.

As condições experimentais podem também introduzir vários factores que afectam os resultados.
São exemplos a temperatura ambiente, se se usa o mesmo aparelho para efectuar medições e se
elas são feitas pela mesma pessoa e no mesmo dia, etc.
Portanto, esses factores devem ser identificados e, se possível, controlados.

Então, o desenho experimental deve ser concebido de modo a incluir as seguintes etapas :
- identificação de factores que podem afectar o resultado de uma experiência
- planear a experiência para que os efeitos de factores não controlados sejam
minimizados
- uso da análise estatística para separar os efeitos dos vários factores envolvidos

7.2. DESENHO FACTORIAL

Como já foi referido, ANOVA permite separar as várias fontes de variação num conjunto de
dados experimentais e testar a sua significância.

Uma das aplicações importantes da ANOVA diz respeito aos ensaios colaborativos entre
laboratórios.
Um objectivo é estimar as variações dentro e entre laboratórios para um método analítico que se
pretende definir como um método padrão.
Para tal, a mesma amostra é analisada pelo mesmo método em diferentes laboratórios.
Os ensaios colaborativos testam também a precisão e a acurácia dos laboratórios.

Vários factores experimentais podem afectar os resultados, p.ex., temperatura, composição do


solvente, pH, pureza dos reagentes, humidade, etc.
É essencial que esses factores sejam identificados e considerados antes de qualquer tentativa
colaborativa, pelo que os laboratórios devem ser avisados dos factores a serem cuidadosamente
controlados.

Vejamos como, a partir de um número relativamente pequeno de experiências, se pode obter


bastante informação.
Suponhamos que há 7 factores experimentais (A-G) capazes de afectar os resultados de uma
análise. Estes factores devem ser testados a, pelo menos, 2 níveis, para ver se são realmente
significativos.
Assim, se o factor a analisar é a temperatura, deve-se realizar experiências preliminarse a 2
temperaturas ou níveis e comparar os resultados.
De modo análogo, se a pureza do reagente pode afectar o resultado, deve-se realizar experiências
preliminares com pureza elevada e baixa.
72

Somos então levados a pensar que serão necessárias 27=128 experiências preliminares cobrindo
todas as combinações possíveis de 7 factores a 2 níveis.
Se o número de factores é n, então o número de experiências a levar a cabo num desenho
completo é 2n.
Quando o número de factores é >5, é obvio que se torna muitas vezes impraticável considerar
desenhos completos.
Na prática, porém, apenas 8 experiências darão informação relevante.
Se representarmos os 2 níveis dos factores por + e −, a tabela seguinte mostra como estes níveis
se dispõem nas 8 experiências, cujos resultados são designados por y1, y2, y3, …., y8.

Expa. Factores resultado


A B C D E F G
1 + + + + + + + y1
2 + + − + − − − y2
3 + − + − + − − y3
4 + − − − − + + y4
5 − + + − − + − y5
6 − + − − + − + y6
7 − − + + − − + y7
8 − − − + + + − y8

Para determinar o efeito de mudar 1 factor do nível + para o nível −, compara-se o valor médio
dos resultados obtidos para ambos os níveis. Assim, para o factor A, calcula-se
DA = (y1+y2+y5+y6) / 4 – (y3+y4+y7+y8) / 4

Depois de calcular as diferenças para todos os factores, é preciso determinar as que são
significativamente superiores ao erro experimental obtido através das réplicas ao nível +.

Estas medições-réplicas não envolvem trabalho adicional porque, em princípio, já terão sido
realizadas para determinar a repetibilidade do método.
Se esta for caracterizada por um desvio-padrão s, demonstra-se que o factor é significativo se a
diferença
D> 2s
Quando se identifica um factor significativo, devem ser tomadas medidas para eliminá-lo, o que
muitas vezes é impossível, mas pode-se definir os limites de variação do parâmetro em causa.

Este conjunto de experiências, tècnicamente conhecido por desenho factorial incompleto ou


parcial, permite investigar apenas efeitos principais, mas não detecta interacções entre factores.

Exemplo :
Os dados da investigação dos factores pH, temperatura e concentração num método
colorimétrico são os seguintes :

FactorA : pH nível + = 8 nível − = 8.5


Factor B : Temperatura nível + = 20 oC nível + = 22 oC
73

Factor C : concentração nível + = 0.10 M nível + = 0.12 M

Trata-se de um desenho factorial parcial de 3 factores e os resultados das experiências estão a


seguir indicados :

Expa. Factores Resultado


A B C
1 + + + y1=0.200
2 − + − y2=0.218
3 + − − y3=0.240
4 − − + y4=0.206

DA =(y1+y3) / 2 – (y2+y4) / 2 = 0.008


DB =(y1+y2) / 2 – (y3+y4) / 2 = - 0.014
DC =(y1+y4) / 2 – (y2+y3) / 2 = - 0.026

Supondo que o desvio-padrão obtido para as réplicas ao nível + é 0.010,


2 s = 0.014
o que significa que o factor C deve ser bem controlado porque pode introduzir erros quando se
usa o método mencionado.
Quer dizer, o procedimento deve precisar o valor da concentração, p.ex., 0.10 M em vez de 0.1
M, com a indicação de que o nível de concentração é um factor crítico.

7.3. DESENHO FACTORIAL COMPLETO E OPTIMIZAÇÃO

Como muitas vezes se determinam elementos-traço, é preciso escolher os níveis dos factores
que condicionam a resposta que deve ser maximizada.

A optimização é o processo que visa encontrar os níveis óptimos dos factores.

Primeiro que tudo é necessário definir os factores e que interacções entre eles são de considerar
como capazes de afectar a resposta.
Geralmente isto é feito concebendo um desenho factorial com cada factor a 2 níveis (alto e
baixo).

No caso de uma variável quantitativa, esses termos correspondem a valores numéricos e a sua
escolha obedece às limitações impostas a essa variável. Por exemplo, se o factor em estudo é o
pH, então os valores restringem-se ao intervalo 0-14.

No caso de uma variável qualitativa, os termos alto e baixo referem-se a 2 condições diferentes,
p.ex., presença e ausência de catalizador, amostra em pó e em grãos, presença e ausência de luz,
etc.
74

A experiência factorial vai então testar o efeito de n variáveis ou factores (A, B, C, ….) a 2
valores ou níveis (a1 e a2, b1 e b2, c1 e c2, ….).
Para determinar todos os efeitos são necessárias 2n experiências que são estabelecidas de acordo
com um diagrama ou desenho factorial.

Desenho factorial para 2 factores A e B a 2 níveis

A0 A1
B0 1 a
B1 b ab

1 : nível baixo de cada factor


a e b : efeitos separados de mudar apenas A e apenas B
ab : interacção de A e B ou efeito combinado de mudar A e B.

São necessárias 4 experiências.

Desenho factorial para 3 factores A, B e C a 2 níveis

A0 A1
B0 B1 B0 B1
C0 1 b a ab
C1 c bc ac abc

1 : nível baixo de cada factor


a, b e c : efeitos separados de mudar só A, só B e só C
ab, ac e bc : interacções de 2 factores ou efeito de mudar simultâneamente A e B, A e C, B e C.
abc : interacção de 3 factores A, B e C.

São necessárias 8 experiências.

Tabela ANOVA para desenhos factoriais de 2, 3, 4 e 5 factores a 2 níveis

ν
Fonte de variação 2 factores 3 factores 4 factores 5 factores
Efeito de 1 factor 2 3 4 5
Efeito de 2 factores 1 3 6 10
Efeito de 3 factores - 1 4 10
Efeito de 4 factores - - 1 5
Efeito de 5 factores - - - 1
___ ___ ___ ___
Total 3 7 15 31

ν corresponde aos coeficientes de uma expansão binomial (a+b)n .


75

Por exemplo, para 2 factores n=2 e a expansão binomial é :


(a+b)2 = a2+2ab+b2

sendo os coeficientes 1, 2 e 1 e que estão indicados na 2a. coluna (2 factores) da tabela.

Note-se que o primeiro coeficiente, 1, aparece em todos desenhos factoriais e corresponde à


experiência em que se considera o nível baixo de cada factor.
Pode-se então ver que, para 2, 3, 4 e 5 factores, o número de experiências é, respectivamente, 4,
8, 16 e 32.

Para testar que efeitos são significativos pode-se usar ANOVA em que as somas dos quadrados
são obtidas a partir dos valores calculados dos efeitos estimados.

Por exemplo, numa experiência com 3 factores a 2 níveis, demonstra-se que


SS = N x (efeito estimado)2 / 4 N : no. total de medições incluindo as réplicas

Para testar a significância de um efeito, compara-se o quadrado médio respectivo com o erro
residual.

Começa-se a efectuar o teste pela interacção de ordem mais elevada.


Se esta for significativa, então não faz sentido testar as interacções de ordem mais baixa ou
testar se os factores tomados individualmente são significativos, uma vez que todos os
factores terão de ser considerados em qualquer processo de optimização.

Um efeito principal, ou seja, um factor individual só deve ser testado quanto à sua significância
se não interactua com outros factores.

Um problema que surge com um desenho factorial completo é que, como se sabe, o número de
experiências requeridas aumenta ràpidamente com o número de factores.

Por exemplo, considerando 5 factores , cada a 2 níveis, são necessárias 25=32 experiências (da
tabela anterior – 5 efeitos primários devidos a 1 factor, 10 interacções de 1a. ordem, 10
interacções de 2a. ordem, 5 interacções de 3a. ordem e 1 interacção de 4a. ordem).

Se, adicionalmente, efectuarmos 2 réplicas para cada combinação de níveis, serão necessárias
25+1=64 experiências.

Quando há mais que 3 factores, é possível muitas vezes simplificar o problema, admitindo que
interacções de 3a. ordem ou superior são desprezáveis.
Admite-se que efeitos de ordem mais elevada são geralmente muito menores que efeitos
principais ou individuais e interacções de ordem menor.
Nesses casos, adopta-se um desenho factorial incompleto.
76
77

8. BIBLIOGRAFIA

Analytical Methods Committee : Recommendations for the Definition, Estimation and Use of the
Detection Limit, Analyst, vol.112, 1987, 199-204.

Analytical Methods Committee : Uses (Proper and Improper) of Correlation Coefficients,


Analyst, vol.113, 1988, 1469-1471.

Davies, L. : Efficiency in Research, Development and Production : The Statistical Design and
Analysis of Chemical Experiments, 1993, The Royal Society of Chemistry, Cambridge, 180 pp.

Laitinen, H. : Chemical Analysis – Series in Advanced Chemistry, 1960, McGraw-Hill Book


Company, Inc., N. Y., 611 pp.

Massart, D. L., Vandeginste, B. G. M., Deming, S. N., Michotte, Y. e Kaufman, L. :


Chemometrics: a textbook, Data Handling in Science and Technology, vol. 2, 1988, Elsevier
Science Publishers B.V., Amsterdam, 3a. ed., 488 pp.

Miller, J. C. e Miller, J. N. : Statistics for Analytical Chemistry, 1993, Ellis Horwood PTR
Prentice Hall, London, 3a. ed., 233 pp.

Miller, J. C. e Miller, J. N. : Basic Statistical Methods for Analytical Chemistry. Part I. Statistics
of Repeated Measurements. A Review, Analyst, vol.113, 1988, 1351-1356.

Miller, J. N. : Basic Statistical Methods for Analytical Chemistry. Part 2. Calibration and
Regression Methods. A Review, Analyst, vol.116, 1991, 3-14.

Ripley, B. D. e Thompson, M. : Regression Techniques for the Detection of Analytical Bias,


Analyst, vol. 112, 1987, 377-389.

Skoog, D. A., West, D. M. e Holler, F. J. : Fundamentals of Analytical Chemistry, 1988, W. B.


Saunders Company, N. Y., 5a. ed., 894 pp.

Thomson, M. : Regression Methods in the Comparison of Accuracy, Analyst, vol. 107, 1982,
1169-1180.

Thomson, M. e Bailey, S. : VAMSTAT – Statistics for Valid Analytical Measurement, 1994,


computer package, Laboratoty of the Government Chemist, London.

Você também pode gostar