Você está na página 1de 13

1

VALIDAÇÃO ESTATÍSTICA DE PROCESSOS: Um estudo de caso na


indústria farmacêutica

Alberto Wunderler Ramos (awramos@usp.br)


Departamento de Engenharia de Produção - EPUSP
Caixa Postal 61548 São Paulo – SP – Brasil – 05424-970

1 INTRODUÇÃO

Estudos de validação de processos têm por objetivo avaliar se determinado


processo consegue gerar produtos conformes. Costumam ser realizados nas fases
iniciais de produção de um novo produto e visam realizar uma avaliação preliminar do
desempenho do processo em termos de atendimento às especificações do produto.
Resumidamente, a metodologia consiste em obter uma amostra de produtos
fabricados em condições normais de operação, avaliar a estabilidade estatística (ou
previsibilidade) do processo e, determinar a capacidade deste processo gerar produtos
dentro das especificações.
Embora de uso comum no meio industrial, principalmente na área de alimentos e
farmacêutica, tais estudos costumam ser feitos sem o emprego da Estatística para inferir
sobre o comportamento futuro do processo com base em amostras.
Este trabalho busca abordar uma metodologia que permita a correta avaliação da
capacidade do processo nos estágios iniciais do ciclo de vida de um produto para, a
seguir, ser aplicada a um caso prático.

2 METODOLOGIA PARA ESTUDOS DE VALIDAÇÃO

Vários autores já abordaram este assunto, tais CHARBONEAU e WEBSTER


(1978), e HRADESKY (1989). As metodologias propostas são bastante similares e são
constituídas das seguintes etapas, conforme apresenta a Figura 1.

2.1 Obtenção e coleta da amostra


Durante a realização do estudo, procura-se não fazer ajustes na máquina, trocas de
lotes de materiais, trocas de operador, etc., a não ser que tal tipo de interferência seja
inevitável. Normalmente, estipula-se a obtenção de uma amostra de 50 a 100 itens,
coletados após ter dado tempo suficiente para o equipamento aquecer e estabilizar para,
a seguir, numerar os itens, mantendo-se sua ordem cronológica de fabricação.
O tamanho da amostra recomendado está diretamente relacionado com a precisão
das estimativas obtidas. Amostras muito pequenas produzirão incertezas maiores para
os parâmetros (média, desvio-padrão, etc.) estimados. Por outro lado, amostras grandes
incidirão em maiores custos de obtenção.
Contudo, mais importante do que o tamanho da amostra em si é a forma pela qual
a mesma é obtida. RUNGER (1994) demonstrou que os danos advindos de um
esquema de coleta de dados mal planejado são muito mais perniciosos do que as
informações obtidas decorrentes de uma limitação de dados.
2

Coletar
Amostra

Avaliar
Estabilidade
Estatística

não
Estável ? Corrigir

sim

Quantificar
Capacidade

Tomar
Decisão

Figura 1 – Etapas básicas em estudo de capacidade.

Em um estudo de validação, com exceção da própria máquina, o ideal é que as


demais variáveis do processo (materiais, mão-de-obra, métodos, meio de medição e
meio ambiente) sejam mantidas fixas. A idéia é avaliar tão somente a variabilidade que
pode ser imputada ao equipamento produtivo, constituído da máquina, ferramental e
dispositivos associados.
Caso haja mais de uma máquina ou, então, mais de um ferramental ou dispositivo
em avaliação é preciso se fazer um estudo de validação para cada uma das possíveis
combinações destas, já que esta será a única maneira de avaliar a eventual existência de
diferenças.
As outras fontes de variação que restam e são exatamente aquelas avaliadas na
validação e são devidas à repetição entre ciclos (variação entre unidades consecutivas),
e às diferenças entre fluxos de produtos (casos de várias posições, por exemplo).
Os itens devem, também, ser numerados seqüencialmente para permitir que
eventuais tendências, ciclos, ou outro problema qualquer no comportamento do
processo seja detectado, evidenciando falta de previsibilidade na variação do processo.
Do ponto de vista prático, várias dificuldades que podem surgir nesta etapa:
a) tempo elevado para obtenção da amostra
Este fato não afeta sensivelmente os resultados obtidos, desde que se procure manter
todas as variáveis do processo tão constantes quanto possíveis. Caso isto não seja
possível (necessidade de troca de lote de matéria-prima, por exemplo), as ocorrências
devem ser anotadas e, na etapa seguinte, verificado o impacto de tal mudança na
estabilidade estatística do processo.
b) custo excessivo na fabricação da amostra
Isto é especialmente válido no caso de produtos sofisticados tecnologicamente ou
com alto valor agregado. Contudo, esta questão é uma decisão de caráter
eminentemente econômico e, portanto, foge do escopo deste trabalho.
3

c) manutenção da ordem seqüencial em que os produtos são gerados


É uma restrição que não pode ser relaxada, já que a ordem no tempo é essencial para
a avaliação da estabilidade estatística do processo. Este tipo de ocorrência é comum
em máquinas com grande velocidade de produção. As saídas existentes para
viabilizar esta questão são: ou a construção de dispositivo na saída da máquina
(magazine, por exemplo), ou a identificação da origem da peça (cavidade, posição,
etc.);
d) existência de múltiplos fluxos de produtos
É a situação de máquinas com diferentes posições, tais como máquinas de
compressão na indústria farmacêutica, ou de envase na indústria alimentícia. Nestes
casos, a amostra deve ser dividida igualmente entre os diversos fluxos de produtos
existentes, identificando-se claramente a sua origem e preservando-se sua seqüência
no tempo. O objetivo de tal procedimento é possibilitar, na etapa de avaliação da
estabilidade estatística do processo, a verificação de existência de diferenças
assinaláveis entre os diferentes fluxos.

2.2 Avaliação da Estabilidade Estatística


A avaliação da estabilidade estatística (previsibilidade) é feita mediante a
construção de um gráfico de controle adequado, cujo objetivo é verificar se o padrão de
variação do processo se mantém ou não ao longo do período de coleta dos dados.
Se a análise dos gráficos revelar que o processo é instável (ou que está fora de
controle estatístico), será necessário reiniciar o estudo de validação. Caso contrário,
pode-se prosseguir com o estudo. É importante destacar que nem todas as metodologias
exigem esta etapa de verificação da estabilidade estatística do processo.
A restrição de existência de estabilidade estatística resulta da necessidade de que a
variação do processo possa ser adequadamente representada através de algum modelo
matemático (uma distribuição de probabilidade, no caso), possibilitando a inferência
quanto aos parâmetros de processo. Para tanto, não pode haver presença de causas
especiais de variação (ou causas assinaláveis).
Quando um processo é instável, não há previsibilidade quanto ao seu desempenho
e, conseqüentemente, não existe qualquer possibilidade de se prever a aceitabilidade dos
produtos por este gerados unicamente com base nas amostras coletadas. Os resultados,
obtidos nesta situação, tornam-se totalmente inválidos.
Os gráficos de controle, desenvolvidos por SHEWHART (1931), admitem que
uma observação qualquer de X (xt) obtida de um processo estatisticamente estável (com
média µ e desvio-padrão σ constantes) pode ser adequadamente representada através do
modelo matemático:

xt = µ + εt (1)

onde εt é o erro amostral, suposto distribuído normal e independentemente com média 0


e desvio-padrão constante.
Adotou, então, o critério de que uma estatística qualquer (W) calculada a partir
destas observações, independentemente de sua distribuição amostral de probabilidade,
terá como limites de controle:

LSCW = µ(W) + 3.σ(W)


LMW = µ(W) (2)
LICW = µ(W) - 3.σ(W)
4

Os gráficos de controle são robustos quanto a desvios da normalidade nos dados,


conforme demonstraram BURR (1967) e SCHILLING; NELSON (1976). Mesmo
quando um processo gera dados cuja distribuição não possa ser admitida como normal,
ainda assim os gráficos de controle funcionarão a contento.
Para se avaliar a estabilidade estatística do processo, as metodologias
recomendam que a amostra total de tamanho n (50 a 100 valores) seja dividida em k
subgrupos de tamanho n/k cada um (20 subgrupos, cada um com 5 valores, por
exemplo). Contudo, com este procedimento genérico nem sempre é correto.
Quando existe um único fluxo de produtos, como é o caso de máquinas singelas
(com uma única posição, por exemplo), não ha nenhum critério racional pelo qual se
possa justificar a formação destes subgrupos, conforme os princípios básicos
estabelecidos por SHEWHART (1931), e muito bem explicados por WHEELER
(1996). Em outras palavras, um subgrupo é uma certa quantidade de dados tomados em
condições admitidas como similares e que, portanto, mantêm entre si uma certa
homogeneidade. Agrupar valores arbitrariamente de n/k em n/k itens não possui
nenhuma justificativa plausível por detrás de si. Conseqüentemente, o recomendado
seria tratar os dados obtidos como valores individuais.
O gráfico para valores individuais possui os seguintes limites de controle:

LSC x = x + E 2 .Rm

LM x = x (3)

LIC x = x − E 2 .Rm

onde x-barra é a média dos k valores individuais obtidos, E2 é um fator de correção,


função da quantidade de itens (m) tomados na amplitude móvel (veja Anexo A), e Rm-
barra é a amplitude móvel média definida como:

Rm =
∑ Rm i
(4)
k

com cada amplitude móvel (Rmi) sendo definida como:

Rmi = | xm – xm+1| i = 1, 2, 3,..., k-1 (5)

Este gráfico (x) é utilizado conjuntamente com o gráfico da amplitude móvel


(Rm), que possui como limites de controle:

LSC Rm = D 4 .Rm

LM Rm = Rm (6)

LIC Rm = D 3 .Rm

onde D3 e D4 são fatores de correção, função da quantidade de itens (m) tomados na


amplitude móvel (Anexo A).
5

Quando há diversos fluxos de produtos, como no caso de máquinas com múltiplas


posições, cada uma destas deve ser considerada como sendo um subgrupo “natural” em
si mesmo, já que é mais provável haver diferenças entre posições do que dentro de uma
mesma posição. Conseqüentemente, obter amostras de tamanho n de cada uma das k
diferentes cavidades ou posições aparenta ser uma alternativa adequada.
Face ao exposto, pode-se adotar gráficos da média e amplitude ( x e R) nesta
situação. Seus limites de controle são:

LSC x = x + A 2 .R

LM x = x (7)

LIC x = x − A 2 .R

onde A2 é um fator de correção, função do tamanho do subgrupo (Anexo A), e x-duas


barra é a média geral calculada como:

x=
∑x (8)
k

com k, a quantidade total de subgrupos e R-barra é a amplitude móvel calculada como:

R=
∑R (9)
k

Para o gráfico da amplitude (R), têm-se os seguintes limites de controle:

LSC R = D 4 .R

LM R = R (10)

LIC R = D 3 .R

com D3 e D4 fatores de correção, função do tamanho do subgrupo (Anexo A).

2.3 Quantificação da Capacidade


Verificada a estabilidade estatística do processo, pode-se passar a quantificar a sua
capacidade. Isto costuma ser feito mediante o uso de índices de capacidade. Existe uma
grande variedade de índices de capacidade. Entretanto, em estudos de validação, dois
índices são mais freqüentemente utilizados: Cm e Cmk, conforme FINLEY (1992).
O primeiro índice é definido como sendo a razão entre a tolerância de engenharia
e a dispersão do processo, matematicamente:

LSE − LIE
Cm = (11)
6.σ
6

onde LSE é o limite superior da especificação, LIE o limite inferior da especificação e


σ é o desvio-padrão do processo (população).
O índice Cm compara a variabilidade total permitida ao produto (ou tolerância
de especificação) com a variação do processo (também chamada de tolerância natural).
Assim, para o processo ser considerado capaz, o índice Cm deve ser igual ou
maior do que 1, o que equivale a dizer que pelo menos 99,73% dos produtos serão
conformes, admitindo-se a distribuição normal válida para a variabilidade dos valores
individuais e a média do processo centralizada na especificação. A Figura 2 ilustra isto.
Intrinsecamente, este índice admite que a média da máquina pode ser facilmente
ajustada e, portanto, somente a tolerância de engenharia (que é a distância entre o limite
superior e o inferior da especificação) é comparada com a dispersão total. Esta é sempre
a melhor condição possível para o estudo, daí o por quê do índice ser habitualmente
chamado de capacidade potencial.
O outro índice, Cmk, é definido como

Cmk = mínimo {Cmi, Cms} (12)

onde Cmi é calculado mediante

LIE LSE
TOL
Figura 2 – Índice Cm

µ − LIE
Cmi = (13)
3.σ

Analogamente, define-se o índice Cms como sendo

LSE − µ
Cms = (14)
3.σ

Cmk é recomendado nos casos de especificações unilaterais, onde inexiste LIE ou


LSE, ou quando a média do processo não pode ser centralizada na especificação por
problema de engenharia ou, ainda, devido a um elevado custo de alteração ou ajuste.
No índice Cmk, além de avaliar-se a variabilidade total permitida às peças com a
tolerância natural de fabricação, verifica-se, também, a posição do processo em relação
aos limites (superior e inferior) da especificação. Assim, o valor de Cmk deve ser igual
ou superior a 1 para o processo ser considerado capaz. Este índice é, também, conhecido
pelo nome de capacidade de máquina.
7

No cálculo de Cm e Cmk admite-se que os dados podem ser adequadamente


representados por uma distribuição normal. Caso isto não ocorra, as formulas de (11) a
(14) devem ser alteradas. A verificação da validade da distribuição normal para o
processo em estudo é feita através de testes de aderência (testes não-paramétricos).
D'AGOSTINO e STEPHENS (1986) apresentam vários tipos diferentes de testes
de aderência para a distribuição normal. Embora concluam que não exista um único
teste ótimo para avaliar todas as situações de desvio quanto à condição de normalidade,
recomendam uma análise gráfica de dados, envolvendo o uso do papel de probabilidade
normal, na avaliação de aderência.
O papel de probabilidade normal emprega o conceito de linearização de dados,
mediante o emprego de transformações adequadas, de forma que caso a distribuição
normal seja adequada à representação da variabilidade do processo, os pontos
(porcentagens acumuladas) aparecerão alinhados próximo a uma reta, conforme mostra
a figura 3, a seguir.

,999
,99
,95
Probabilidade

,80
,50
,20
,05
,01
,001

96,5 97,5 98,5 99,5 100,5 101,5 102,5

Figura 3 – Papel de Probabilidade Normal

Quando os valores individuais não mais apresentam distribuição normal, os


índices Cm e Cmk apresentados não mais são válidos. Nesta situação, basicamente há
três alternativas diferentes:
a) Normalização dos dados: esta consiste em se obter uma função adequada que
normalize os dados originais, fazendo com que se recaia no caso convencional;
b) Assumir alguma outra distribuição de probabilidade contínua, diferente da
normal, e passar a trabalhar com esta no cálculo dos indicadores de capacidade;
c) Ajustar uma curva aos dados experimentais (Johnson, por exemplo), encontrar
as probabilidades e passar a empregá-las nos índices.

Como tal assunto é muito específico e foge ao escopo deste artigo, maiores detalhes
destes métodos podem ser encontrados em RAMOS (1999).
8

A avaliação dos índices de capacidade, embora simples, também apresenta alguns


outros problemas práticos associados. Inicialmente é necessário deixar claro que tanto
Ĉm como Ĉmk são estimativas de Cm e Cmk e que, portanto, estão sujeitas a um erro
de estimação, ou seja, por serem calculados a partir dos valores da amostra, também
apresentam variação. Dito de uma outra forma, a obtenção de valores superiores a 1
para Ĉm e Ĉmk não assegura necessariamente a capacidade do processo em atender às
especificações.
A avaliação da capacidade de curto-prazo costuma ser feita mediante a
comparação dos resultados dos índices de capacidade com valores mínimos estipulados
em normas ou fixados pelos próprios clientes.
Por exemplo, com o lançamento dos requisitos QS-9000, foi estabelecido um
critério para a decisão da capacidade preliminar do processo: Ĉmk > 1,67 para
características definidas como críticas. Este valor é superior ao adotado em outras
metodologias, onde é requerido que Ĉmk >1,33, tal como em AMERICAN SOCIETY
FOR QUALITY CONTROL (ASQC, 1986, p.37), e busca dar uma margem de
segurança maior por haver poucos dados disponíveis e um conhecimento ainda limitado
sobre o comportamento do processo.
Os critérios para decisão sobre a aceitabilidade do processo variam enormemente
de indústria para indústria, não havendo uma padronização única neste aspecto.
Contudo, face às quantidades de dados normalmente empregadas em estudos de
validação e, também, em função do tipo desta, julgamos que os seguintes critérios
podem ser adotados no caso de indústria farmacêutica ou alimentícia.

Tabela 1 – Critérios recomendados


Tipo de Validação Quantidade mínima de itens Cmk mínimo
Retrospectiva 100 1,33
Prospectiva 30 1,67

Ações corretivas adequadas devem ser tomadas caso os índices tenham revelado
uma inadequação do processo quanto ao atendimento das especificações de engenharia.

3. UM ESTUDO DE CASO

Em um processo de envase de um produto líquido em frascos, o volume (ou peso) é


uma característica crítica. O líquido é acondicionado em uma máquina que possui 8
posições diferentes. A cada vez, oito frascos vazios são introduzidos sobre os bicos da
máquina que faz o seu preenchimento simultaneamente. A especificação para o peso é
100 +/- 3 g.

3.1 Obtenção de amostras


Visando atender às recomendações da Tabela 1, tomou-se uma amostra total de 48
frascos, sendo seis de cada posição da máquina. Os frascos foram numerados,
identificando-se o bico onde foram preenchidos e, também, a sua ordem de envase (1º
grupo de 8 frascos, 2º grupo de oito frascos, etc.).
9

3.2 Avaliação da estabilidade estatística do processo.


Por ser uma máquina com oito diferentes posições, esta pode ser enxergada como
possuindo oito fluxos de produtos. Conseqüentemente, já há um critério racional lógico
para a divisão da amostra em sub-grupos, ou seja, por bicos.
O gráfico de controle a ser adotado deve, então, obedecer a esta subdivisão da
amostra total e para tanto se adotou o gráfico da média e amplitude1. O primeiro irá
avaliar a igualdade entre médias das diferentes posições da máquina e o segundo, a
similaridade entre as dispersões dos diferentes bicos.
Este procedimento é análogo ao da análise de variância e o teste de
homogeneidade de variâncias com amostras de igual tamanho (teste de Bartlett).
Contudo, é conduzido de forma gráfica e os seus resultados são mais facilmente
interpretados pelo pessoal técnico encarregado de sua execução.
A Figura 4 apresenta este gráfico de controle. Percebe-se que uma das posições
apresenta um ponto fora dos limites de controle quanto à amplitude, evidenciando um
comportamento distinto deste bico (maior variabilidade) do que os demais.

U C L=101,705
101,5
M édia ( x-bar r a)

101,0
_
_
X=100,613
100,5

100,0

99,5 LC L=99,521

1 2 3 4 5 6 7 8

1
4,8
U C L=4,528

3,6
A mplitude ( R)

_
2,4 R=2,260

1,2

0,0 LC L=0

1 2 3 4 5 6 7 8
P osição

Figura 4 – Gráficos da média e amplitude (primeira coleta)

Uma rápida averiguação pelo pessoal da manutenção indicou que havia um


desgaste entre o êmbolo e a câmara nesta posição e, após o reparo desta, uma nova
amostra de 48 itens foi coletada e seus resultados estão na Figura 5.
A análise deste último gráfico evidenciou que o problema foi adequadamente
sanado, pois agora todos os pontos encontram-se dentro dos limites de controle, e,
portanto, pode-se proceder com a análise de capacidade do processo.
10

101,5
U C L=101,334

101,0
M édia ( x-bar r a)

100,5 _
_
X=100,366

100,0

99,5
LC L=99,397

1 2 3 4 5 6 7 8

4 U C L=4,017

3
A mplitude ( R)

_
2 R=2,004

0 LC L=0

1 2 3 4 5 6 7 8
P osição

Figura 5 – Gráficos da média e amplitude (segunda coleta).

3.3 Avaliação da Capacidade do Processo


Antes de verificar se o processo é capaz de atender às especificações, é preciso
avaliar se os dados podem ser admitidos como provenientes de uma distribuição normal.
Para tanto, emprega-se o papel de probabilidade normal, apresentado na Figura 6.
Como todos os pontos se apresentam próximos de uma reta, isto demonstra que o
modelo de variação representado pela distribuição normal é adequado.
Papel de Probabilidade Normal
99

95

90
Porcentagem Acumulada

80

70
60
50
40
30
20

10

1
98 99 100 101 102
Peso

Figura 6 – Papel de Probabilidade Normal para Peso de Frascos


11

Finalmente, avalia-se a capacidade do processo mediante o cálculo dos índices de


capacidade Cm e Cmk, apresentados na Figura 7.
Pelo fato de haver 48 dados e Cmk ter fornecido valor 1,10, o processo não pode
ser considerado capaz. Observa-se que este encontra-se ligeiramente descentralizado na
especificação, visto que a sua média é 100,37 g contra 100 g que é o centro da
especificação. Um ajuste efetuado na média fará com que sua capacidade aumente mais,
mas não será suficiente para se atender aos valores mínimos da Tabela 1.
Em função destes resultados todos, o processo não pode ser validado
estatisticamente.

LSL USL

LIE 97,0
LSE 103,0

Média 100,37
Desv.Pad. 0,80

Cm 1,25

Cmk 1,10
Cmi 1,40
Cms 1,10

97,6 98,4 99,2 100,0 100,8 101,6 102,4

Figura 7 – Estudo de Capacidade para Peso de Frascos

4. CONCLUSÕES

Estudos de validação de processo já são rotina em muitas indústrias. Contudo, o


emprego de métodos estatísticos nestes estudos ainda é muito incipiente, em parte
devido à falta de cultura de avaliar a variabilidade de processos visando assegurar
resultados consistentes e adequados, ou seja, produtos que atendam às especificações.
A metodologia aqui proposta não visa ser completa, mas apenas encaminhar
algumas soluções aos problemas mais freqüentemente encarados pelos profissionais
responsáveis pela execução de tal tipo de estudo: estabilidade ou previsibilidade de
processo, distribuição normal e não-normal, e índices de capacidade.

Notas:
1. O autor reconhece que a quantidade de pontos (oito, no caso) é meio reduzida para a
construção de gráficos de controle, já que normalmente se recomenda de 20 a 30 antes
do cálculo dos limites de controle. Contudo, visando facilitar o entendimento da
metodologia, isto não será levado em consideração.
12

5. REFERÊNCIAS BIBLIOGRÁFICAS

AMERICAN SOCIETY FOR QUALITY CONTROL. Statistical process control


manual. Milwaukee, ASQC, 1986.

BURR, J.T. The effects of non-normality on constants for x-bar and R charts.
Industrial Quality Control, Milwaukee, v.23, p.563-9, 1967.

CHARBONNEAU, H.C.; WEBSTER, G.L. Industrial quality control. Englewood


Cliffs, Prentice-Hall, 1978.

CLEMENTS, J.A Process capability calculations for non-normal distributions. Quality


Progress, Milwaukee, v.22, n.9, p. 95-100, 1989.

D'AGOSTINO, R.B.; STEPHENS, M.A. Goodness-of-fit techniques. New York,


Marcel Dekker, 1986.

FINLEY, J.C. What is capability? or What is Cp and Cpk? In: ASQC QUALITY
CONGRESS TRANSACTIONS, 46th, Nashville, 1992. Proceedings. Milwaukee,
ASQC, p.186-92, 1992.

HRADESKY, J.L. Aperfeiçoamento da qualidade e da produtividade. São Paulo,


McGraw-Hill, 1989.

RAMOS, A. W. Uma contribuição aos estudos de capacidade de máquina. Tese.


São Paulo, EPUSP, 1999.

RUNGER, G.C. Robustness of variance estimates for batch and continuous processes.
Quality Engineering, Monticello, vol. 7, n.1, p.31-43, 1994.

SCHILLING, E.G.; NELSON, P.R. The effect of nonnormality on the control limits of
x-bar charts. Journal of Quality Technology, Milwaukee, v.8, 1976.

SHEWHART, W. A. Economic control of quality of manufactured product. New


York, Van Nostrand, 1931.

WHEELER, D.J. Advanced topics in statistical process control. Knoxville, SPC,


1996.
13

Anexo A - FATORES PARA CÁLCULO DE LIMITES DE CONTROLE

n A2 A3 E2 B3 B4
2 1,880 2,695 2,660 - 3,267
3 1,023 1,954 1,772 - 2,568
4 0,729 1,628 1,457 - 2,266
5 0,577 1,427 1,290 - 2,089
6 0,483 1,287 1,184 0,030 1,970
7 0,419 1,182 1,109 0,118 1,882
8 0,373 1,099 1,054 0,185 1,815
9 0,337 1,032 1,010 0,239 1,761
10 0,308 0,975 0,975 0,284 1,716

n D3 D4 D c4 d2
2 - 3,267 0,709 0,798 1,128
3 - 2,574 0,524 0,886 1,693
4 - 2,282 0,446 0,921 2,059
5 - 2,114 0,403 0,940 2,326
6 - 2,004 0,375 0,952 2,534
7 0,076 1,924 0,353 0,959 2,704
8 0,136 1,864 0,338 0,965 2,847
9 0,184 1,816 0,325 0,969 2,970
10 0,223 1,777 0,314 0,973 3,078

FONTE: MONTGOMERY, D.C. Introduction to statistical quality control. 3 ed. New York, John
Wiley, 1996.

Você também pode gostar