Você está na página 1de 15

AULA 1

CONTROLE ESTATÍSTICO
DA QUALIDADE

Prof. Rafael Simões Ribeiro


INTRODUÇÃO

O objetivo de nossos estudos é fornecer ferramentas práticas para a


aprendizagem e o controle de processos (em geral, produtivos) com base em
métodos estatísticos. Abordaremos temáticas básicas da estatística da
qualidade. No entanto, nossa ementa e, principalmente, a maneira que ela será
abordada se difere dos principais programas de graduação em engenharia.
Devido a limites de conteúdos e de carga horária, o curso cobrirá os principais
tópicos que, no ponto de vista do autor e com base em sua experiência na
indústria, são relevantes para um engenheiro que trabalha com processos ou
produtos. Cabe ressaltar que cada tópico pode (e deve) ser posteriormente
aprofundado – com consultas às referências bibliográficas presentes ao final de
cada aula –, principalmente ao se deparar com problemas reais ao longo de sua
carreira.
O objetivo de nossa aula é situá-lo no contexto da qualidade moderna,
fornecendo um breve apanhado histórico desse assunto. Na sequência,
abordaremos as principais ferramentas qualitativas da qualidade, as quais
servirão de embasamento para o restante do nosso curso.

TEMA 1 – O CONTEXTO DA QUALIDADE MODERNA

Vivemos um momento singular na história da humanidade. Nossa espécie


começou a raciocinar durante a chamada revolução cognitiva, há cerca de 70 mil
anos – o que é um período de tempo ínfimo em relação à história de nosso planeta
–, de acordo com Harari (2017). Hoje, temos na palma de nossas mãos um
aparelho com mais capacidade de processamento do que as naves espaciais que
nos fizeram pisar na superfície da Lua em 1969. O desenvolvimento exponencial
que presenciamos nas últimas décadas não seria possível sem o que chamamos
de qualidade moderna (ou, simplesmente, qualidade, na concepção de nosso
tempo).
Foi durante a primeira Revolução Industrial que o conceito de
intercambialidade de peças foi formulado, em 1793, por Eli Whitney (Wheeler;
Chambers, 1992). Antes, os produtos tinham bases integralmente artesanais, e
cada peça era confeccionada sob medida para determinada aplicação. Com o
conceito de intercambialidade, a produção de peças em série e o conceito de
especificação passaram a fazer parte do processo produtivo. Porém, logo veio o

2
primeiro desafio: como especificar um componente e garantir que sua fabricação
forneça peças idênticas, dentro dessa especificação?
Até o início do século XX, o problema foi tratado com a redundância de
inspeções (cuidado: muitas empresas utilizam a mesma abordagem ainda nos
dias de hoje; cabe a nós, engenheiros, mudarmos esse panorama – e você vai
aprender nesse curso como podemos fazer isso). A Figura 1 mostra um processo
de fabricação típico do início da Revolução Industrial; essa abordagem consiste
na fabricação de peças visando às tolerâncias de especificação e certificadas por
meio de inspeções (medições). As peças fora das especificações são separadas
para serem retrabalhadas ou descartadas. Após o retrabalho, a peça é aprovada
ou reprovada ao passar por uma nova inspeção.

Figura 1 – Processo de fabricação típico

Fonte: Elaborado com base em Wheeler e Chambers, 1992, p. 2.

O problema dessa abordagem é que ela atua nos efeitos e não nas causas.
Ao negligenciar o processo que, “fora de controle”, produz peças não conformes,
eventualmente se atinge o colapso quando a quantidade de peças que necessitam
de retrabalho ou descarte é consideravelmente grande. Sem falar que, muitas
vezes, há a intenção de mudança de especificações para que se possa aproveitar
peças de refugo. É claro que tal abordagem não é sustentável sob nenhum prisma;
há muitos impactos econômicos, ambientais e até sociais quando uma empresa
segue por um caminho pouco científico como esse.
Como, então, utilizar o método científico para propor uma abordagem
diferente? Qual seria a condição ideal de um processo produtivo?
Idealmente, gostaríamos de produzir peças uniformes, com a menor
variação possível – peças virtualmente idênticas. O método cientifico entra em
jogo na análise do processo produtivo que, uma vez sob controle, resulta em uma
produção previsível e “correta”, diminuindo e até excluindo a necessidade de
muitas inspeções, retrabalhos e descartes, como indica a Figura 2:

3
Figura 2 – Processo de fabricação de produtos virtualmente uniformes

Fonte: Elaborado com base em Wheeler e Chambers, 1992, p. 3.

O contexto de qualidade da forma que hoje conhecemos teve como base


as ideias de Walter Shewhart e posteriormente os esforços de William Edwards
Deming, dois dos principais expoentes, ambos norte-americanos.
Deming, que trabalhou com Shewhart na Western Electric, assimilou suas
técnicas (especialmente relacionadas a gráficos de controle) e empreendeu uma
série de palestras para vários engenheiros estadunidenses, mas, na época, não
conseguiu cooptar a atenção necessária às transformações a que se dispunha por
parte da alta gerência das empresas em que palestrou. Após a Segunda Guerra
Mundial, empreendeu um ciclo virtuoso de palestras e aulas para engenheiros e
estatísticos japoneses, dessa vez se assegurando de que a alta gerência e donos
de indústrias japonesas participassem do processo. Sua contribuição ao longo de
algumas décadas e diversas viagens ao Japão foi fundamental para transformar
a realidade daquele país, que, devastado após a guerra (e após duas bombas
atômicas!) se transformou em uma referência mundial de industrialização e
qualidade (Wheeler; Chambers, 1992).
Além de ser um teórico matemático e estatístico, Deming se preocupou
com os processos gerenciais, entendendo que, sem uma mudança cultural
organizacional, as mudanças trazidas pela estatística não vingariam; para tal,
propôs, em 1982, 14 pontos para tirar uma empresa da crise, em uma de suas
principais publicações, chamada Out of the Crisis. Vejamos, a seguir, uma
tradução de sua filosofia (Deming, 2000, p. 23 e 24). Repare na intertextualidade
de cada ponto com os conceitos atuais de qualidade, confiabilidade e melhoria
contínua:

1. Desenvolva uma consistência de propósito no caminho da melhoria do


produto, processo ou serviço com o objetivo de se tornar competitivo,
permanecer no negócio e gerar empregos;
2. Adote uma nova filosofia. A gerência deve acordar para o desafio, aprender
sobre suas responsabilidades e promover a liderança em detrimento da
“chefia”;

4
3. Cesse a dependência da inspeção para atingir a qualidade. Elimine a
necessidade de inspeção em massa ao trazer qualidade para o produto em
primeiro lugar;
4. Acabe com a prática de escolher um fornecedor com base no preço. Em
vez disso, minimize o custo total. Mova em direção de ter uma relação de
longo termo e confiança com um fornecedor;
5. Melhore constantemente e eternamente o sistema de produção e de
serviços, de forma a melhorar a qualidade e a produtividade, e,
consequentemente, reduzir constantemente o custo;
6. Institua treinamento no trabalho;
7. Promova liderança. O objetivo da supervisão deve ser ajudar pessoas e
máquinas a realizar um trabalho melhor.
8. Remova o medo; assim, todos poderão trabalhar efetivamente para a
companhia;
9. Quebre barreiras entre departamentos. Pessoas em pesquisa, projeto,
vendas e produção devem trabalhar como um time para antecipar
problemas de produção e de uso que podem ser encontrados em produtos
e serviços;
10. Elimine tudo que remeta a metas de zero defeitos e novos níveis de
produtividade. Essas exortações apenas criam relacionamentos
conflituosos, uma vez que a maior parte das causas de baixa qualidade e
produtividade pertence ao sistema de produção e, portanto, está além da
força de trabalho;
11. Elimine metas numéricas e padrões de trabalho que determinem objetivos
numéricos. São as melhorias nos sistemas de trabalho que resultam em
qualidade e, consequentemente, em possíveis metas, e não as metas por
si mesmas;
12. Remova barreiras que impossibilitem pessoas a sentir orgulho do trabalho
próprio;
13. Institua um programa vigoroso de educação e autodesenvolvimento;
14. Coloque todos na companhia para trabalhar no cumprimento da
transformação. A transformação é o trabalho de todos.

Repare o quão atuais são os 14 pontos de Deming, que discorrem sobre a


importância do trabalho em equipe, do treinamento e educação de todos os
envolvidos (inclusive da gerência), das responsabilidades hierárquicas

5
corretamente ajustadas e, principalmente, da necessidade de entendimento e
estudo permanente sobre o produto, processo ou serviço.
Outra contribuição filosófica importante de Deming é o famoso ciclo PDSA 1
(ou, talvez na forma mais comum, PDCA), em que cada letra corresponde a uma
ação no desenvolvimento de um processo ou produto: Plan (planejar), Do
(executar), Study (estudar a execução) e Act (agir de forma a introduzir melhorias).
O conceito de ciclo, conforme ilustrado na Figura 3, é uma lembrança importante
da característica iterativa dessa filosofia; quanto mais vezes essa sequência de
planejamento e execução (de experimentos) seguida por um estudo das respostas
e ações corretivas é executada, melhor é o conhecimento e consequente
desenvolvimento do processo ou produto.

Figura 3 – Ciclo PDSA (ciclo de Deming)

Conforme mencionado, Deming foi fundamental na reestruturação do


Japão pós-guerra. Sua interação com os japoneses suscitou o desenvolvimento
da estatística voltada para o controle de qualidade naquele país. Nomes como
Taguchi e Ishikawa entraram na história dessa temática, na medida em que os
Estados Unidos perdiam metade de seu manufacturing share 2, especialmente
para o Japão (Box; Bisgaard, 1987).
Ishikawa reuniu, em seu livro Guide to Quality Control, o que ele chamou
de as sete ferramentas (Ishikawa, 1976). São elas: folha de verificação, diagrama
de Pareto, diagrama de causa e efeito, histogramas, estratificação, gráficos de
dispersão (scatter plots) e cartas de controle. Falaremos, a seguir, das principais

1
Deming chamou-o de ciclo de Shewhart por estar supostamente implícito no trabalho deste. No
entanto, o conceito se popularizou de forma a ser reconhecido como ciclo de Deming (Wheeler e
Chambers, 1992, pg. 9).
2
Quantidade percentual de produtos manufaturados.
6
ferramentas qualitativas, e, nas aulas seguintes, das demais, momento em que
entrarão, de fato, as análises estatísticas.

TEMA 2 – FERRAMENTAS QUALITATIVAS DE ISHIKAWA

Abordaremos, agora, as ferramentas qualitativas de Ishikawa: folha de


verificação, Pareto e diagrama de causa e efeito. São ferramentas de simples
compreensão utilizadas para a prospecção de fatores que comprometam a
qualidade de um produto ou processo. Como quaisquer ferramentas, exigem
prática para que se tire seu melhor proveito.

2.1 Folha de verificação

Um dos pilares do controle estatístico da qualidade são os dados e a forma


de coletá-los. Qualquer análise estatística depende deles e de nada vale estes
são incorretos ou pouco confiáveis (Ishikawa, 1976).
Na década de 1970, computadores eram do tamanho de grandes salas e a
palavra folha de verificação se justificava, uma vez que marcações eram feitas de
forma manual. Aliás, tal ferramenta era muito útil para o registro de forma correta
de diversos dados da produção e para a realização de posteriores cálculos
estatísticos. Hoje, muitas dessas informações são coletadas de forma passiva,
automatizada, por sensores na linha de produção – o que está inserido na
denominação atual de Indústria 4.0.
Por mais que a coleta de dados seja muitas vezes automatizada, é parte
do trabalho do engenheiro organizar esses dados coletados e extrair informações
deles. Inspirar-se em ferramentas consagradas de um passado recente pode ser
uma boa maneira de desenvolver uma “folha de verificação” moderna. Entre as
principais funções de folhas de verificação, estão: verificação da distribuição de
um processo de produção, verificação de itens defeituosos, verificação do
local do defeito, verificação da causa do defeito, confirmação de check-up e
outras.
A folha de verificação à esquerda da Figura 4 é de itens defeituosos,
enquanto a folha posicionada à direita é do local do defeito. Esses são apenas
dois exemplos entre muitas ideias diferentes de folhas de verificação. Não existe
uma melhor do que a outra, elas se complementam e suas utilizações dependem
do processo em estudo.

7
Figura 4 – Exemplos de folhas de verificação

Fonte: Ishikawa, 1976, p. 32-33.

2.2 Diagrama de Pareto

O diagrama de Pareto é um gráfico de estratificação de dados. Ele


apresenta, no eixo das abscissas, fatores que impactam um processo em ordem
decrescente de importância e, no eixo das ordenadas, valores correspondentes
ao tamanho do impacto de cada fator (se esses fatores forem, por exemplo, a
contagem de causas de defeitos de fabricação, serão variáveis discretas e sua
frequência é representada no eixo das ordenadas; se esses fatores forem
variáveis contínuas em um experimento planejado, por exemplo, os valores das
influências estatísticas de cada fator na variável resposta são representados no
eixo das ordenadas).

Figura 5 – Exemplo de diagrama de Pareto

Fonte: Elaborado com base em Box e Bisgaard, 1987, p. 8.

8
A importância do gráfico de Pareto é a rápida identificação dos fatores
principais de um processo. É comum, na engenharia, nos referirmos ao diagrama
de Pareto por meio da máxima que diz que “70% dos problemas são causados
por 30% dos fatores 3”.

2.3 Diagrama de causa e efeito (diagrama de Ishikawa)

O diagrama de causa e efeito, também chamado de diagrama de Ishikawa


ou diagrama espinha de peixe, é uma ferramenta de brainstorming, um modelo
que incita o engenheiro e a sua equipe a buscar causas para um problema; e essa
é a sua principal virtude: ser um padrão de concentração para identificação de
problemas.
Um diagrama de causa e efeito – mostrado na Figura 6 – é construído com
os seguintes passos: 1) definição do problema (efeito); 2) organização da equipe
de brainstorming; 3) desenho em um quadro da estrutura central do diagrama
(caixa de efeito e linha central); 4) especificação das categorias de causas
potenciais ligadas à linha central; 5) identificação das causas possíveis,
classificando-as em ordem de importância aparente nas categorias do passo
anterior; 6) implementação de ações corretivas.

Figura 6 – Exemplo de diagrama de causa e efeito

Fonte: Elaborado com base em Box e Bisgaard, 1987, p. 8.

3
Eventualmente os valores referidos podem variar para 80% e 20%, 75% e 25%. É comum, em
um experimento planejado com, por exemplo, 8 fatores, descobrir relevância estatística para
apenas 2 ou 3, o que fica evidenciado pelo gráfico de Pareto.
9
TEMA 3 – VARIAÇÃO E QUALIDADE

As ideias de Shewhart sobre os conceitos de variação podem ser


condensadas na seguinte frase: “while every process displays variation, some
processes display controlled variation, while others display uncontrolled variation”
(Wheeler; Chambers, 1992, p. 4). Essa frase, apesar de curta, possui muita
informação; vamos analisá-la por períodos:

• Todo processo apresenta variação. Essa máxima deve ser assimilada


desde já. A variação é inerente a todas as coisas. Em última análise,
fisicamente, ela se explica pelo comportamento aleatório de partículas
subatômicas. O fato é que mesmo irmãos gêmeos univitelinos, que
partilham do mesmo material genético, possuem características físicas
diferentes. Duas peças sempre serão diferentes entre si em algum nível;
ainda que um paquímetro não tenha resolução suficiente para diferenciá-
las, talvez um micrômetro tenha.
• Alguns processos apresentam variações controladas. Tais variações
são caracterizadas por um padrão estável e consistente com o passar do
tempo. Variações controladas são atribuídas a “causas aleatórias”, são
como “ruídos de fundo”, parte inerente a qualquer processo. Não confunda:
apesar de as causas desses tipos de variações serem aleatórias, elas
geralmente são pequenas e facilmente previsíveis, devido ao seu caráter
estável; como falamos acima, há aleatoriedade em tudo 4. Quando um
processo opera apenas com causas aleatórias de variação, ele opera sob
controle estatístico.
• Enquanto outros apresentam variações não-controladas. Tais
variações são caracterizadas por um padrão que muda com o tempo e
podem ser atribuídas a “causas especiais”, ou “causas atribuíveis”. Essas
causas possuem esse nome pois podem ser identificáveis, ao contrário das
causas aleatórias; ainda que essa identificação não seja necessariamente
fácil. Quando um processo opera com causas atribuíveis de variação, ele é
dito fora de controle estatístico.

4
Um bom livro para a compreensão dos efeitos da aleatoriedade em nosso dia a dia é o livro
intitulado O andar do bêbado: como o acaso determina nossas vidas, de Leonard Mlodinow.
10
Montgomery (2019) apresenta diversas definições para qualidade, em
ordem de abrangência de significado ao longo do tempo, uma vez que a resposta
para a pergunta “o que é qualidade?” não é tão simples e direta:

• Qualidade significa adequação para uso;


• Qualidade é inversamente proporcional à variabilidade;
• Melhoria da qualidade é a redução da variabilidade nos processos e
produtos.

Essas definições estão alinhadas aos pensamentos de Deming e reforçam


(tenha isso sempre em mente) a ideia de que melhoria da qualidade é um
comprometimento da empresa como um todo com a redução de variabilidade a
partir de treinamento de pessoal, conhecimento dos processos e produtos, foco
no cliente (interno e externo) etc.

TEMA 4 – METODOLOGIAS DE CONTROLE E MELHORIA DA QUALIDADE

Discutiremos, ao longo do nosso curso, vários métodos estatísticos para


controle e melhoria da qualidade. Para melhor entendimento do que objetivamos
aprender, considere a breve história hipotética a seguir.
O engenheiro da qualidade João da Silva é contratado por uma pequena
indústria familiar de injeção de plásticos para organizar a produção e obter
melhorias de produtividade. Nessas condições, João sabe que seu cargo não é
limitado por atribuições definidas e que ele deverá exercer inúmeras atividades.
Em seu primeiro dia de emprego, João dá de cara com o grande desafio que o
espera: a fábrica é um caos! Ciente de que terá bastante trabalho, João rascunha
alguns passos iniciais do que terá que realizar para cumprir seu objetivo:

1. Implementar um programa de 5S no chão de fábrica e no setor


administrativo;
2. Implementar uma metodologia ágil de gestão de tarefas no chão de fábrica,
como, por exemplo, o sistema Kanban;
3. Implementar uma metodologia de gerenciamento de projetos e processos,
como o DMAIC, ou Scrum;
4. Realizar MSE nos sistemas de medição de características de qualidade de
produção, de modo a se certificar que todos os valores mensurados são
confiáveis;

11
5. Criar mapas de processo de modo que compreenda e analise todas as
etapas da produção;
6. Construir cartas de controle de modo a identificar causas atribuíveis que
comprometam o controle estatístico do processo (CEP);
7. Realizar experimentos planejados (DOE) para descobrir possíveis causas
atribuíveis e otimizar processos;
8. Manter o processo produtivo dentro dos limites de especificação e com
controle estatístico (CEP).

É claro que a realização dos passos rascunhados por João demanda


conhecimento e bastante trabalho. Aprenderemos, nesse curso, os pontos de 4 a
8.
Por ter encontrado um caos tanto no chão de fábrica quanto nos processos
administrativos, João poderia se basear na família de normas ISO 9000 para
implementar uma padronização de processos, principalmente documentais. A
ideia por trás das normas (especialmente as normas ISO 9000:2005, ISO
9001:2008 e ISO 9004:2009) é positiva, mas a execução formal, passando por
auditorias de certificação e posteriormente de vigilância é bastante criticada
(negativamente, pois uma empresa pode gastar muitos recursos e obter poucos
resultados). Montgomery (2019. p. 18) diz que “há evidências de que a certificação
ISO faz pouco para evitar projetos, manufatura e entrega o cliente de produtos de
baixa qualidade”.
Algo que ajudaria João ao longo do desenvolvimento de todo esse trabalho
seria contar com um corpo técnico certificado no programa Seis Sigma. Tal
programa divide seus certificados em três “faixas” (como nas artes marciais)
principais: os Green Belts, os Black Belts e os Master Black Belts. Pessoas
(geralmente engenheiros, mas não necessariamente) certificadas green belt são
aptos a utilizar o método científico e sua capacidade de raciocínio crítico para a
resolução de problemas que ajudaria João a implementar grande parte de suas
metas. Muito do que veremos em nosso curso faz parte de um treinamento green
belt, porém, aqui, entraremos um pouco mais a fundo na matemática. Black belts
são treinados para resolver problemas mais complexos, aprofundando seus
conhecimentos em diferentes ferramentas específicas do controle e melhoria da
qualidade. Master black belts são engenheiros certificados que possuem a
capacidade de treinar green belts e black belts, além de servirem como
consultores de projetos (especialmente os mais complexos).

12
Por fim, vamos estudar, na seção seguinte, uma metodologia estruturada
de resolução de problemas.

TEMA 5 – DMAIC

DMAIC é o acrônimo de Define, Measure, Analyse, Improve and Control.


Essa é uma filosofia de trabalho que ajuda o engenheiro a lembrar – por meio da
visualização constante de seu fluxo – dos passos de realização de um projeto, de
modo a aumentar a chance de completude e organização do trabalho.

Figura 7 – Acrônimo de DMAIC

Créditos: Dmitry/Adobe Stock.

A etapa define subentende a definição de oportunidades e desafios em um


projeto. É nela que o engenheiro responsável irá sintetizar as informações acerca
do business case, das oportunidades relacionadas à entrega de valor para os
clientes internos e externos (definição de seus requisitos críticos), dos objetivos
específicos e mensuráveis (de preferência com estimativas financeiras). Ainda,
deve ser realizado um esboço do projeto com o planejamento temporal de
atividades principais e definição da equipe de trabalho.
Ainda nessa etapa, é executada uma importante atividade técnica: o
mapeamento de processos (e produtos). Falaremos do mapa de processo em
outra aula; por ora, basta afirmar que esta é uma importante ferramenta de
entendimento do processo e identificação de variáveis e atributos que se
relacionam com entregas parciais do processo e, em última análise, com a entrega
final da qual queremos aumentar a qualidade.
A etapa measure deve começar com a validação de sistemas de medição,
o que aprenderemos também em outra aula ao estudarmos como realizar um

13
MSE. Depois, também são realizadas avaliações dos processos utilizando,
principalmente, cartas de controle, que aprenderemos também em outra aula.
A etapa analyse compreende a análise crítica dos dados já coletados, a
formulação de hipóteses para comportamentos observados e a criação de uma
base de conhecimentos sobre o processo que se aprofunda a cada nova
verificação.
A etapa improve subentende a criação e teste de potenciais soluções que
aumentem a qualidade do processo, geralmente reduzindo sua variabilidade.
Repare que, compreendida nas etapas define, measure e analyse está a
aplicação do método científico ou também do ciclo PDSA, ou seja, essas etapas
são cíclicas e muitas vezes necessitamos de algumas iterações para solucionar
um problema, ou para reduzir variações. Dentro desse processo cíclico está a
execução de experimentos que, apesar de não tão comuns nas indústrias
brasileiras, deveriam ser planejados. Um experimento planejado é uma forma
inteligente e muito mais barata de testar hipóteses sobre um processo ou produto
em relação aos métodos tradicionais de experimentação (que são, em geral, a
tentativa e erro – quando parâmetros de um processo são modificados ao acaso,
sem uma metodologia que sustente essas modificações – e o OFAT – one factor
at a time, “método” muito comum de variar parâmetros individualmente, mantendo
os demais fixos). Estudaremos experimentos planejados em outra aula.
Por fim, a etapa control é atingida após a realização de todo o esforço de
engenharia das etapas anteriores, quando conseguimos reduzir variações em um
processo e otimizá-lo, de forma que, nesse momento, ele esteja rodando de
maneira “limpa”, eficiente e eficaz. Conforme veremos, um processo sob controle
pode sair de controle em algum momento, por conta de causas atribuíveis que
venham a aparecer (como desgastes, variações inesperadas etc.).
De tempos em tempos, o ciclo DMAIC deve ser repetido, uma vez que
condições mudam com o tempo. Existem outras metodologias de
desenvolvimento de projetos que podem variar com o tipo de aplicação, setor
industrial e empresa. Usualmente, empresas grandes possuem uma adaptação
própria. Entretanto, é válido ressaltar que a base de todas essas metodologias é
o método científico, que deve ser seguido não só na ciência, mas também no
trabalho de engenharia.

14
REFERÊNCIAS

BOX, G.; BISGAARD, S. The scientific context of quality improvement. Center for
Quality and Productivity Improvement of University of Wisconsin-Madison.
Madison, n. 25, p. 1-45, 1987.

DEMING, W. E. Out of crisis. 1. ed. Cambridge: MIT Press, 2000.

HARARI, Y. N. Sapiens – Uma breve história da humanidade. 27. ed. Porto


Alegre: L&PM, 2017.

ISHIKAWA, K. Guide to Quality Control. 1. ed. Tokyo: Asian Productivity


Organization, 1976.

MLODINOW, L. O andar do bêbado: como o acaso determina nossas vidas. 1.


ed. Rio de Janeiro: Jorge Zahar Ed., 2009.

MONTGOMERY, D. C. Introdução ao controle estatístico da qualidade. 7. ed.


Rio de Janeiro: LTC, 2019.

WHEELER, D. K.; CHAMBERS, D. S. Understanding Statistical Process


Control. 2. ed. Knoxville: SPC Press, 1992.

15

Você também pode gostar