Escolar Documentos
Profissional Documentos
Cultura Documentos
Ferramentas Gerenciais
Professor:
Dorival Leão
ii
Sumário
1 Balanced ScoreCard 1
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Perspectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Perspectiva Financeira . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Perspectiva do Cliente: . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Perspectiva dos Processos Internos: . . . . . . . . . . . . . . . . . . . . . 4
1.2.4 Perspectiva de Aprendizado e Crescimento: . . . . . . . . . . . . . . . . . 4
1.3 Passos para a implementação do BSC . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Construção do Mapa Estratégico . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Diagrama em árvore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4 Introdução à Estatı́stica 74
4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.2 Coleta de Dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2.1 Planejando a coleta de dados . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3 Exposição de Dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3.1 Dados qualitativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.3.2 Dados quantitativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4 Diagrama de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.4.1 Diagrama de Pareto relativo a custos . . . . . . . . . . . . . . . . . . . . 85
4.5 Distribuição de Freqüências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.5.1 Distribuição de freqüência pontual: Dados discretos . . . . . . . . . . . . 88
4.5.2 Distribuição de freqüência em intervalos de classes: Dados contı́nuos . . . 90
4.6 Histograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.7 Medidas de Posição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.7.1 Média aritmética . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.7.2 Mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.8 Medidas de Dispersão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.8.1 Amplitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.8.2 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.8.3 Desvio padrão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Sumário iv
14 Exercı́cios 284
Capı́tulo 1
Balanced ScoreCard
1.1 Introdução
O Balanced ScoreCard (BSC) foi desenvolvido pelos professores da Harvard Business School,
Robert Kaplan e David Norton, em 1992, com o propósito de fornecer um modelo para avaliação
e performance empresarial. O BSC, surgiu da necessidade de captar toda a complexidade da
performance na organização das empresas.
O Balanced Scorecard (BSC) é um sistema de avaliação de desempenho empresarial. Seu
principal diferencial é reconhecer que os indicadores financeiros, por si só, não são suficientes
para isso. O BSC complementa as medições financeiras com avaliações sobre o cliente, iden-
tificando os processos internos que devem ser aprimorados e analisando as possibilidades de
aprendizado e crescimento, assim como os investimentos em recursos humanos, tecnologia e
capacitação que poderão mudar substancialmente as atividades, impulsionando o desempenho
futuro.
O Balanced Scorecard (BSC) é uma ferramenta de gestão que abrange os nı́veis estratégicos,
tático e operacional, fornecendo um modelo que traduz a visão estratégia de uma empresa
em um conjunto de indicadores de desempenho, pois observou-se, ao longo do tempo, que
indicadores econômicos eram insuficientes para garantir competitividade a uma empresa.
O BSC deve levar à criação de uma rede de indicadores de desempenho que atinja todos
os nı́veis organizacionais, tornando-se, assim, uma ferramenta para comunicar e promover o
comprometimento geral com a estratégia da corporação (Kaplan e Norton, 1996; 2000, apud
Pietro et al 2006, p.82).
O Balanced Scorecard (BSC) é uma ferramenta que permite mapear a estratégia de uma
organização em objetivos estratégicos e estes em indicadores de desempenho, distribuı́dos em
1. Balanced ScoreCard 2
De um modo geral o BSC visa obter o conhecimento, habilidades e sistemas que a orga-
nização precisará para inovar e contruir os processos internos de modo a fornecer produtos
adequados ao mercado (perspectiva do cliente), os quais, eventualmente, proporcionarão o au-
1. Balanced ScoreCard 3
1.2 Perspectivas
Nesta seção, temos um estudo detalhado sobre cada uma das perspectivas apresentadas
anteriormente. Para isso apresenta-se algumas definições:
• Objetivos estratégicos: o que a estratégia define para ser alcançado em cada perspec-
tiva;
• Iniciativas: o que deverá ser feito para facilitar o alcance da meta estipulada para um
determinado indicador.
Após essas definições, vejamos com detalhes cada uma das perspectivas:
1. Balanced ScoreCard 4
É uma forma de avaliar se a estratégia da empresa está trazendo melhoria nos resultados
financeiros. Segundo Kaplan e Norton (2000), dentro dessa perspectiva temos duas estratégias
básicas: crescimento da receita e produtividade. A primeira refletirá em outras perspectivas
na busca de novas fontes de receita vindas de novos mercados, novos produtos ou clientes.
E a estratégia da produtividade irá buscar uma melhoria nos processos de produção e apoio
aos clientes atuais e pode incluir a redução de custos. A perspectiva financeira pode fornecer
diretrizes para as demais perspectivas, contribuindo para melhorar a lucratividade e rentabil-
idade da empresa. Existe uma grande importância atribuı́da a essa perspectiva, no entanto,
caminha-se para a valorização de outras, como por exemplo, a de Aprendizagem e Crescimento,
que também devem influenciar os resultados econômicos.
Para que uma empresa se mantenha no mercado são necessários mudanças e aperfeiçoamentos
constantes. A condição para uma empresa melhorar a cada dia é o aprendizado. Esse apren-
dizado pode ocorrer por meio de investimentos em novos equipamentos, pesquisa em desen-
volvimento, sistemas e procedimentos e nos recursos humanos.
1. Balanced ScoreCard 5
internos) permitirão a organização atender mais eficazmente seus clientes, obtendo melhores
resultados financeiros.
Alguns exemplos de mapas estratégicos:
Capı́tulo 2
Em 1972, o especialista japonês Shigeru Mizuno concluı́a que havia uma “nova era para a
qualidade”, na qual as empresas, para se manterem competitivas no mercado, precisavam:
1. Incorporar inovações aos produtos e serviços de tal modo que oferecessem valor adicional
ao cliente, indo além do simples atendimento de suas necessidades;
Naquela época, faltavam ferramentas que formassem um conjunto coerente que pudesse ser
assimilado rapidamente e aplicado amplamente por quaisquer gerentes ou profissionais envolvi-
dos em planejamento estratégico, planejamento em geral, definição de objetivos e resolução
de problemas. Dentro dessa “nova era para a qualidade”, eram necessárias novas ferramentas
capazes de auxiliar em atividade como:
Assim, entre 1972 e 1978, uma comissão da JUSE (Japonese Union of Scientits and En-
gineers) pesquisou e compilou as “sete ferramentas gerenciais da qualidade”, as quais nos
referimos por 7FGQ. São elas:
Abaixo são descritos alguns passos que podem auxiliar na construção do diagrama de afinidades.
– Os valores e conceitos atuais constituem barreiras para atingir novos objetivos, es-
tabelecer mudanças e romper o status quo. Eles precisam ser descartados e novos
valores, conceitos e sistemas precisam ser estabelecidos;
O tema deve ser expresso em frase do tipo “quais são as questões envolvidas em ...?”, de
conteúdo propositadamente genérico, sem qualquer conotação positiva ou negativa, para
evitar a indução de idéias segundo o status quo ou sob conceitos preexistentes.
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 12
Não se deve tentar construir um diagrama de afinidades sobre problemas simples ou que
exigem solução imediata.
• Coletar os dados verbais: Os dados verbais podem ser fatos, opiniões ou pensamentos.
Existem várias maneiras para se coletar dados verbais, conforme mostra o diagrama da
Figura 2.2, entre as quais o brainstorming é uma das mais importantes. Cabe aqui
observar que o brainstorming tende a ser mais rico e criativo quanto mais heterogênea
for a equipe. Isto é particularmente importante na construção do diagrama de afinidades,
em que deve-se buscar a contribuição das diversas áreas ou departamentos envolvidos.
• Transferir os dados para cartelas: Os dados verbais coletados devem ser revisados
de modo a conter idéias, opiniões e pensamentos individuais, na forma de frases inde-
pendentes, com um único e claro significado. Deve-se usar uma cartela para cada frase.
Frases e termos vagos ou abstratos não devem ser utilizadas, pois podem tornar o dados
sem utilidade em etapas posteriores. Recomenda-se o uso de cartelas adesivas post-it
tamanho grande, colocadas sobre folhas de flip-chart.
Em silêncio, o participante deve ler cada cartela lentamente duas ou três vezes. Ao
encontrar cartelas “similares”, deve colocá-las uma ao lado da outra. Todos fazendo isso
simultaneamente, em breve serão formados grupos de cartelas afins. A afinidade que
se busca detectar, nesta fase, deve basear-se no feeling ou intuição, ao invés da razão ou
lógica. O termo feeling refere-se a um estado mental que precede a conscientização lógica.
O ideal é que se tenha a “impressão” de que as cartelas se agrupam por si próprias. Não
se deve agrupar as cartelas segundo critérios classificatórios ou com base em palavras
similares. É perfeitamente possı́vel que existam cartelas “solitárias”.
Os rótulos são propostos e escolhidos em comum acordo por toda a equipe após a leitura
das cartelas (agora em voz alta). Deve-se criar uma nova cartela para cada rótulo, a
menos que se decida que uma das cartelas do grupo é o próprio rótulo. Os rótulos devem
traduzir, em palavras claras e simples, os significados e as nuanças das cartelas do grupo,
mas não devem dizer mais do que as próprias cartelas.
Uma vez definido, o rótulo é colocado sobre as cartelas do grupo. Os grupos rotulados
são tratados agora como se fossem cartelas individuais, e o procedimento é retomado,
embaralhando-se os grupos rotulados e fazendo-se novo agrupamento, até que se chegue
aos rótulos finais.
deve ser conduzida a pesquisa e desenvolvimento?” A Figura 2.3 mostra uma parte do diagrama
de afinidades então obtido.
Passo 5: Crie temas para cada agrupamento. Obtenha consenso sobre os temas.
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 15
Abaixo são descritos alguns passos que podem auxiliar na construção do diagrama de relações.
• Formação da equipe;
– Brainstorming;
– Diagrama de afinidades;
– Diagrama de Ishikawa;
– Diagrama em árvore.
• Escreve-se cada item (dado verbal) coletado em uma cartela (papeis adesivos são muito
úteis para esta finalidade);
– Traçado das setas: Escolher a primeira cartela, colocando-a sobre a folha de flip-
chart. Em seguida, faz-se a pergunta: “Esta cartela tem relação direta com alguma
das demais cartelas, influenciando ou sendo influenciado pelas mesmas?” Deve-se
ler em voz alta o conteúdo das cartelas ao buscar relações entre elas (Figura 2.5).
Setas com duplo sentido devem ser evitadas, pois podem gerar confusão, levando
a “cı́rculos viciosos”. Quando existe mútua relação de causa-efeito, o grupo deve
decidir qual cartela tem mais influência e elegê-la como “causa”, e, assim, a seta
deve partir dela.
Para cada cartela trazida à superfı́cie de trabalho, verificar se ela tem relação de
causa-efeito com as que foram trazidas anteriormente. É útil marcar a cartela (com
um “x”, por exemplo) após fazer essa verificação e desenhar as setas necessárias.
É importante que o grupo garanta que todas as cartelas tenham sido consideradas!
– Seleção dos itens crı́ticos: A equipe deve discutir e buscar o consenso quanto
aos itens ou fatores mais importantes no diagrama, sobre os quais deveria ser de-
senvolvido um plano de ação. Uma “dica” para identificar os fatores crı́ticos, de
uma situação ou problema a ser discutido, é verificar aqueles com maior número
de setas saindo (estes tendem a ser causas primárias) ou com maior número de se-
tas entrando (estes podem ser “gargalos”). As cartelas dos itens crı́ticos devem ser
realçadas, contornando-se suas bordas com o “pincel atômico”. Em geral, o número
de itens crı́ticos não deve exceder sete, para não “dispersar” a atenção.
futuras revisões e atualização. Os quadros dos itens crı́ticos devem estar devida-
mente realçados, com contorno duplo, grosso ou sombreado.
Esta forma final do diagrama também é útil para explicar a situação ou problema
complexo a outras pessoas, principalmente aos nı́veis gerenciais superiores.
Exemplo 2.2. A Figura 2.10 mostra um diagrama de relações construı́do para analisar as
causas e fatores que influenciam erros de etiquetagem de mercadorias, os quais dão origem
a reclamações de clientes. Conclui-se que é importante ter instruções de operação claras e
precisas e evitar erros de interpretação por parte dos operadores, por meio de treinamento.
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 21
Figura 2.10: Exemplo do diagrama de relações - análise de causas e efeitos que influenciam
erros de etiquetagem de mercadorias.
Abaixo são descritos alguns passos que auxiliam na construção do diagrama em árvore.
Uma vez definido, ele deve ser confirmado como objetivo primário, fazendo-se a pergunta:
“Com que propósito se busca esse objetivo?”. A resposta a essa pergunta pode levar à
identificação de um objetivo maior e também ajuda a verificar a adequação do objetivo
proposto.
No uso integrado das sete ferramentas gerenciais da qualidade, o objetivo proposto, usual-
mente, tem sua origem a partir de algum item identificado como fator crı́tico (causa
primária ou gargalo) no diagrama de relações. Uma outra “fonte de objetivos” pode ser
o diagrama de afinidades.
Para se justificar o uso do diagrama em árvore, o objetivo a ser atingido deve envolver
atividades de implementação suficientemente complexas, caso contrário, bastaria a simples
atribuição de poucas e definidas tarefas diretamente aos responsáveis.
como necessários para atingir o objetivo, são registrados em cartelas à medida que vão
surgindo e devem ser mantidos à vista de todos os membros da equipe.
3. Usar meios e tarefas que já tenham sido apontados nos diagramas de relações ou nos
diagramas de afinidades, vistos anteriormente.
• Selecionar os meios e tarefas: Uma seleção ou priorização final das tarefas de imple-
mentação provavelmente ainda será necessária após a conclusão do diagrama em árvore,
usando uma matriz de priorização.
O = praticável
P = potencialmente praticável
X = impraticável
– Lembrar que uma idéia, a princı́pio “impraticável”, pode ser melhorada com a in-
corporação de novas idéias e refinamento posterior;
– Não tente levar à exaustão esta etapa de análise, para não atravancar o processo.
O objetivo é evitar a perda de tempo em relação a idéias que facilmente podem ser
reconhecidas como inadequadas ou irrelevantes para o objetivo em questão. Caso
algumas idéias classificadas como “P” persistam, é melhor mantê-las do que eliminá-
las. A discussão e análise posteriores podem ajudar a decidir.
Embora, neste ponto, esteja clara a relação entre o objetivo e os meios, estes provavel-
mente ainda não representam ações concretas. É preciso um maior detalhamento até
chegarmos em tarefas especı́ficas que possam ser atribuı́das aos envolvidos. Então, para
cada meio principal, coloca-se a seguinte pergunta: “Se agora este meio for considerado
um objetivo, que outros meios serão necessários para atingi-lo?” Dentre as cartelas ger-
adas, selecionam-se aquelas que mais adequadamente respondem à questão, colocando-as
à direita do respectivo meio principal. E assim por diante, repete-se essa pergunta até que
se tenha atingido o grau de detalhamento necessário e que todas as cartelas tenham sido
colocadas à direita do respectivo meio/objetivo. Durante esse processo, com freqüência
surgem novas idéias, as quais devem ser anotadas, analisadas e agregadas às demais ou
descartadas.
Quando todas as cartelas tiverem sido arranjadas, traçam-se linhas conectando as relações
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 25
Exemplo 2.3. Uma equipe interfuncional reuniu-se para discutir o tema “Quais são os fatores
relevantes no atraso das entregas de mercadorias aos clientes?”.
Foi construı́do um diagrama de relações, no qual um dos fatores crı́ticos identificados foi
o problema da complexidade na entrada de dados dos pedidos de compra no sistema de com-
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 26
Figura 2.14: Exemplo do diagrama em árvore - reduzir a complexidade na entrada dos dados.
• Muitos itens-chave foram identificados e as opções a serem atacadas devem ser sele-
cionadas;
• Existe consenso quanto ao que consiste uma “boa” solução, mas existe discordância quanto
à importância relativa entre as mesmas;
• Existem limitações de recursos, tais como tempo, dinheiro e pessoal, que obrigam a sele-
cionar apenas algumas opções;
• As opções disponı́veis têm muitas inter-relações, o que torna difı́cil identificar as mais
importantes.
C R I T É R I O S
a b c d e P
A 4 R
B 5 I
C 2 O
D 7 R
E 1 I
F 6 D
G 8 A
H 3 D
I 9 E
Este método é utilizado quando a seleção ou priorização das diversas opções é baseada no
atendimento de cada opção sob critérios pré-estabelecidos pelo grupo. Devem ser seguidas as
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 28
seguintes etapas para a construção de uma matriz de priorização através do método de critérios:
• Estabelecer critérios: A equipe deve criar uma lista dos critérios que adotará para
estabelecer as prioridades. Isto pode resultar de um rápido brainstorming feito pelo
grupo. A descrição do critério não deve ser neutra, isto é, deve explicitar o que se deseja
que cada item atenda. Por exemplo, deve-se escrever “baixo custo de implementação” e
não somente “custo de implementação”.
Retomando o Exemplo 2.3, a equipe agora está interessada em usar o método simplificado
de construção da matriz de priorização para priorizar as 17 possı́veis soluções apontadas
pelo diagrama em árvore. Os critérios escolhidos pelo grupo foram:
B. Tecnologia “não-customizada”;
C. Rápido de implementar;
As porcentagens calculadas sobre o total de pontos (500 neste caso) serão utilizadas como
os pesos de cada critério na etapa seguinte.
• Pontuar as opções segundo cada critério: Constrói-se uma “matriz em L”, na qual as
linhas são as opções e as colunas são os critérios. Por fim, trabalhando-se por coluna, isto
é, segundo cada critério, julga-se o grau em que cada opção atende ao critério. Para isso,
novamente, recomenda-se utilizar a NGT por pontuação mas, agora, em vez de distribuir
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 29
os 100 pontos entre as opções, cada participante atribui uma nota de 0 a 10, conforme seu
julgamento quanto ao grau de adequação da opção a cada critério. Portanto, desta etapa
resultarão tantas tabelas de NGT quantos forem os critérios considerados pelo grupo.
Recomenda-se fazer a pergunta “Em que grau esta opção de atende ao critério de
?”. De acordo com o julgamento do grau de adequação, pode-se utilizar a Tabela 2.4
como guia para a atribuição de notas.
Após cada participante ter julgado e dado a nota de cada opção individualmente contra
o critério, recomenda-se que ele compare as notas entre as diversas opções, procurando
fazer os “ajustes” de notas que julgar necessários.
É importante observar que a votação pura e simples pela NGT não pode ser considerada
adequada se antes não houver uma discussão entre os membros do grupo com o objetivo
de esclarecer todos os aspectos relevantes das opções em questão, como por exemplo, seus
aspectos técnicos e administrativos. Isto aumentará o grau de informação das pessoas,
permitindo melhores decisões pela NGT. Além disso, podem existir situações em que o
grupo preferirá atribuir a nota de cada opção sem usar a NGT, por meio de discussão
aberta e consenso direto quanto às notas. Aliás, este parece ser o meio ideal, desde que
a freqüente dificuldade em atingir o consenso ou a possibilidade de “imposição de idéias”
não tornem necessário apelar para a NGT.
Voltando ao Exemplo 2.3, mostramos a seguir as tabelas de NGT construı́das para obter
as pontuações dadas pelo grupo às 17 possı́veis soluções, com relação ao critério “rapidez
na implementção”, facilidade de aceitação, mı́nimo impacto e baixo custo. Observe ainda
que foram obtidas e anotadas todas as notas médias para as opções.
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 30
critérios restantes.
OPÇÃO Rápida/implem. Facilmente Mı́nimo Baixo TOTAL
(0,28) aceito (0,25) impacto (0,23) custo (0,16)
1. Trein. prevenção erros 5, 8 × 0, 28 = 1, 62 5, 0 × 0, 25 = 1, 25 5, 8 × 0, 23 = 1, 33 6, 0 × 0, 16 = 0, 96 5,16
2. Trein. inspenção seqüencial 5, 2 × 0, 28 = 1, 46 4, 4 × 0, 25 = 1, 10 5, 2 × 0, 23 = 1, 20 5, 6 × 0, 16 = 0, 90 4,66
3. Trein. solução problemas 6, 4 × 0, 28 = 1, 79 6, 4 × 0, 25 = 1, 60 7, 4 × 0, 23 = 1, 70 5, 4 × 0, 16 = 0, 86 5,95
4. Sistema leitura ótica 2, 2 × 0, 28 = 0, 62 4, 8 × 0, 25 = 1, 20 6, 2 × 0, 23 = 1, 43 1, 8 × 0, 16 = 0, 29 3,54
5. Terminal no cliente 4, 2 × 0, 28 = 1, 18 6, 2 × 0, 25 = 1, 55 5, 8 × 0, 23 = 1, 33 5, 6 × 0, 16 = 0, 90 4,96
6. Tela maior 3, 0 × 0, 28 = 0, 84 6, 6 × 0, 25 = 1, 65 3, 2 × 0, 23 = 0, 74 3, 8 × 0, 16 = 0, 61 3,84
7. Reconhecimento de voz 1, 4 × 0, 28 = 0, 39 5, 8 × 0, 25 = 1, 45 4, 6 × 0, 23 = 1, 06 6, 2 × 0, 16 = 0, 99 3,89
8. Programa com menus 8, 0 × 0, 28 = 2, 24 7, 4 × 0, 25 = 1, 85 7, 6 × 0, 23 = 1, 75 7, 6 × 0, 16 = 1, 22 7,06
9. Melhorar o aviso do programa 9, 2 × 0, 28 = 2, 58 8, 8 × 0, 25 = 2, 20 7, 8 × 0, 23 = 1, 79 8, 2 × 0, 16 = 1, 31 7,88
10. Verif. automática preços 6, 4 × 0, 28 = 1, 79 5, 0 × 0, 25 = 1, 25 5, 6 × 0, 23 = 1, 29 6, 0 × 0, 16 = 0, 96 5,29
11. Tela só com dados relevantes 5, 8 × 0, 28 = 1, 62 8, 4 × 0, 25 = 2, 10 5, 0 × 0, 23 = 1, 15 5, 6 × 0, 16 = 0, 90 5,77
12. Formulário maior, mais legı́vel 6, 8 × 0, 28 = 1, 90 6, 2 × 0, 25 = 1, 55 7, 0 × 0, 23 = 1, 61 6, 6 × 0, 16 = 1, 06 6,12
13. Só dados especiais do cliente 5, 8 × 0, 28 = 1, 62 5, 2 × 0, 25 = 1, 30 6, 0 × 0, 23 = 1, 38 5, 8 × 0, 16 = 0, 93 5,23
14. Código de cores, por famı́lia 8, 8 × 0, 28 = 2, 46 8, 8 × 0, 25 = 2, 20 8, 4 × 0, 23 = 1, 93 8, 6 × 0, 16 = 1, 38 7,97
15. Simplif. código 11 dı́gitos 6, 0 × 0, 28 = 1, 68 5, 0 × 0, 25 = 1, 25 6, 6 × 0, 23 = 1, 52 6, 4 × 0, 16 = 1, 02 5,47
16. Maior diferença entre códigos 6, 2 × 0, 28 = 1, 74 5, 6 × 0, 25 = 1, 40 6, 0 × 0, 23 = 1, 38 8, 0 × 0, 16 = 1, 28 5,80
17. Trein. sobre preenchimento 7, 8 × 0, 28 = 2, 18 6, 0 × 0, 25 = 1, 50 7, 4 × 0, 23 = 1, 70 7, 4 × 0, 16 = 1, 18 6,56
Exercı́cio 4. Você e sua famı́lia vão tirar férias por uma semana em Fortaleza - CE. Você deve
escolher um hotel segundo alguns critérios tais como custo, “boa”localização, etc. Determine
junto com a sua equipe as caracterı́sticas (opções tais como: sala de jogos, ar condicionado,
restuarante, café da manhã, condições de pagamento, etc), a serem consideradas para a escolha
do “melhor hotel”.
• Construir a matriz de opções: Deve-se construir uma matriz listando as opções nas lin-
has e numerando-as em seqüência. As colunas também correspondem às mesmas opções,
pois elas serão comparadas entre si. Porém, basta numerar as colunas com o número da
opção sem descrevê-la. A Figura 2.15, a seguir, ilustra a matriz.
• Comparar cada opção com as demais: Em seguida, trabalhando linha por linha,
cada opção será sistematicamente comparada com as demais, procurando-se verificar se
existem relações de causa e efeito entre elas. Além disso, procura-se avaliar a intensidade
das relações.
Quanto à pergunta 2, devem ser usados os seguintes sı́mbolos, aos quais estão associados
a uma pontuação para medir a intensidade da relação.
Exemplo 2.4. Uma empresa empenhada em introduzir um novo produto no mercado construiu
um diagrama em árvore e, a partir dos meios de promoção levantados no diagrama, construiu
uma matriz de priorização. Parte desta matriz está representada na Figura 2.18.
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 35
Com a advertência inicial de que para a interpretação da matriz de priorização não existe
um método que possa ser considerado ótimo, recomenda-se seguir a seguinte seqüência:
1. Verificar o total da coluna “grau”. Uma opção de alta prioridade certamente terá fortes
relações com as demais, resultando num valor relativamente elevado na coluna “grau”.
Na Figura 2.18, as opções prioritárias sob este ponto de vista seriam a 1 e a 5, embora as
opções 6, 3 e 7 não tenham valor muito inferior. As opções 2 e 4, entretanto, claramente
são de baixa prioridade.
2. Para as opções selecionados na etapa anterior, verifique agora a coluna com o total de
sinais. As opções com alto valor de “grau” (da etapa anterior) e com total elevado de sinais
são as que têm maior potencial para priorização, pois possuem várias e fortes relações com
as demais opções. No exemplo, entre as opções 1, 5, 6, 3 e 7, todas têm uma soma de 5
sinais, com exceção da opção 6 (4 sinais). Assim, sob esse critério, pode-se considerar que
elas são basicamente da mesma importância. Entretanto, em outras situações, diferenças
maiores poderiam ajudar a priorizar aquelas opções com maior total de sinais.
3. Ainda para as mesmas opções selecionadas nos itens anteriores, pode-se observar os totais
de sinais “positivo” e “negativos” das opções. Três situações possı́veis:
• Maioria “negativos”: indica uma causa básica ou primária, com impacto sobre um
grande número de opções. Via de regra, vale a pena priorizar esse tipo de opção e
implementá-la a curto prazo.
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 36
Neste exemplo, destaca-se como “causa básica” a opção 1, a divulgação dos ensaios de lab-
oratório e de campo. A opção 6 (demonstração portátil) também se aproxima dessa categoria.
Destaca-se como “ponto de convergência” a opção 5 (sumarizar os pontos fortes de venda para
os representantes), para a qual se direcionam os sinais de todas as demais opções, exceto a 4.
A opção 7 (display com recursos multimı́dia) também está muito próxima dessa condição.
A matriz de relações tipo L é uma matriz básica e de ampla aplicação, que permite relacionar
dois conjuntos de fatores. Os fatores do primeiro conjunto são colocados nas linhas da matriz,
enquanto que os fatores do segundo são colocados nas colunas. Cada par de fatores é analisado
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 37
para verificar a existência de alguma relação entre eles. Quando se detecta uma relação, marca-
se na célula um sı́mbolo que indica a intensidade ou grau da relação.
Exemplo 2.5. Retomando o Exemplo 2.4, o qual trata da promoção de um novo produto, as
tarefas mais prioritárias para divulgação do novo produto foram usadas para a construção de
uma matriz de relações que esclarece as responsabilidades dos departamentos envolvidos. Uma
coluna foi acrescentada à direita para indicar a seqüência das tarefas (Figura 2.19).
A matriz de relações tipo T permite verificar as relações entre um conjunto de dados verbais A
com outros dois conjuntos B e C. Por inferência, estabelece-se (via conjunto A) relações entre
B e C. A matriz de relações tipo T é, portanto, uma superposição de duas matriz de relações
tipo L: BA e AC.
A matriz de relações tipo Y é uma combinação de três matrizes tipo L. Definidos três conjuntos
de dados verbais A, B e C, permite verificar as relações AB, AC, e BC.
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 38
A matriz de relações tipo X é uma combinação de quatro matrizes tipo L. Obtidos quatro
conjuntos de dados verbais A, B, C e D, permite verificar as relações AB, AD, CB e CD. Seu
uso, entretanto, é mais restrito.
Exemplo 2.6. Para ilustrar, a Figura 2.22 contém uma matriz de relações que mostra as
relações entre problemas na produção, tipo de produto, turnos de produção e tarefas de manutenção.
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 39
Isto leva a crer que um plano de melhoria da manutenção poderá reduzir a incidência de
problemas de produção, principalmente nos produtos A e C.
a. Efetivar ações preventivas para evitar a ocorrência de eventos que impossibilitariam atingir
o objetivo (ou que causariam um resultado indesejado);
b. Efetivar ações de contenção ou ter alternativas preparadas para contornar certos eventos
que surjam durante o andamento das atividades.
O campo para aplicação do PDPC é bastante amplo, mas ele é particularmente eficaz para
lidar com os efeitos do fator humano e de mudanças no ambiente. O PDPC torna possı́vel ante-
cipar as conseqüências de acidentes graves, podendo-se contorná-los já na fase de planejamento.
Deste modo, essa ferramenta pode ser usada com sucesso para aumentar a segurança e a con-
fiabilidade de produtos e sistemas , juntamente com outros métodos “clássicos” (por exemplo,
FMECA - Failure Mode, Effects and Criticality Analysis e FTA - Fault Tree Analysis).
Outro aspecto importante do PDPC é o de ele ser (assim como as demais sete ferramen-
tas gerenciais da qualidade - 7FGQ) uma ferramenta gráfica, isto é, permite visualizar todo
o processo para se atingir um dado objetivo. Este fato estimula a geração de novas idéias
entre os participantes na sua construção, além de ser adequado para apresentar o trabalho aos
executivos.
Não existem regras estruturais rı́gidas para a confecção do PDPC, tampouco uma aparência
final “padrão”, como no caso das outras ferramentas que já abordamos. As regras básicas são:
Em suma, pense antes sobre o que pode ocorrer depois, e adote o melhor caminho.
A Figura 2.23 ilustra um PDPC genérico. Cada evento é descrito verbalmente num cı́rculo
ou retângulo. As setas indicam a seqüência cronológica. “A0 ” é a condição ou situação atual.
“Z” pode ser tanto a situação desejada (objetivo) quanto uma condição indesejada, a qual
pretende evitar.
• Avaliação dos problemas: Devem ser avaliados os efeitos de cada problema potencial
sobre o andamento do respectivo caminho. Na avaliação dos problemas, sugere-se consid-
erar conjuntamente sua chance de ocorrência e a gravidade das conseqüências. Ao final
da avaliação, os problemas mais relevantes estarão evidenciados;
X Atividades
Para fins do diagrama de atividades, atividade é todo trabalho que consome tempo. As
atividades são representadas por setas de linha contı́nua, conforme a Figura 2.25, indicando
que é necessário um certo tempo para serem executadas. Toda seta inicia-se em um nó ou
“evento”, denominado evento-inı́cio de atividade, e termina em outro, chamado de evento-fim
de atividade. Um evento é um marco no tempo, um ponto de controle que indica o inı́cio ou o
fim de uma ou mais atividades. É importante observar que ele não significa a execução de uma
tarefa, portanto, não consome tempo ou recursos. Para fins de identificação e referência, cada
evento é identificado por um número inteiro, envolto por um pequeno cı́rculo, conforme mostra
a Figura 2.25. Em cada atividade, o número do evento-inı́cio deve ser sempre menor que o do
evento-fim.
Duas ou mais setas não podem ter o mesmo par de eventos de inı́cio e fim, Figura 2.27 (a).
Quando for o caso, deve ser usada uma atividade fictı́cia (dummy), representada por uma seta
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 45
com linha tracejada, a qual indica apenas a dependência entre duas atividades, mas não implica
dispêndio de tempo. As partes (b), (c) e (d) da Figura 2.27 mostram algumas possibilidades de
uso da atividade fictı́cia. No diagrama de atividades não devem ser usadas atividades fictı́cias
em vão, pois, embora isso não seja um erro, acrescenta complexidade desnecessa.
X Tempos
A duração de cada atividade deve ser indicada conforme a Figura 2.29, em que, por exemplo,
a atividade A dura 5 dias, a atividade B dura 3 dias, a C dura 9 dias e assim por diante.
Enquanto cada atividade está associada a uma duração ou intervalo de tempo, a cada nó
ou evento está associada uma data ou ponto no tempo. A partir dessas informações de tempo
contidas nas atividades e nos eventos, é possı́vel identificar atividades crı́ticas, com pouca ou
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 47
nenhuma folga de tempo, e a partir daı́ aperfeiçoar o plano, como veremos adiante. Para isso,
tornam-se necessárias outras definições, denominadas datas de eventos.
Atribuindo-se a data 0 (zero) ao evento inicial (inı́cio da primeira atividade do plano), e a
partir daı́ acumulando-se as durações das atividades, define-se a “data mais cedo” de um evento,
representada por Tc , é a data mais cedo em que o evento pode ocorrer, ou seja, a mı́nima data
em que estarão concluı́das todas as atividades que convergem para o evento em questão. A
data Tc é calculada somando-se as durações de todas as atividades precedentes. Genericamente
falando, uma vez conhecida a Tc de um evento-inı́cio, a Tc do evento-fim correspondente é
obtida somando-se à primeira a duração da atividade entre eles. Assim, se o ı́ndice i denotar o
evento-inı́cio, f o evento-fim e D(i, f ) a duração da atividade entre eles,
Tc (f ) = Tc (i) + D(i, f ).
No caso em que várias atividades convergem para o mesmo evento, a Tc será a data corre-
spondente à maior soma:
Conhecidas as datas mais cedo de todos os eventos, para definirmos as “datas mais tarde”, é
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 48
necessário atribuir, arbitrariamente, uma data máxima ao evento final (evento no qual termina
a última atividade do plano). Esta data máxima atribuı́da passa a ser a data mais tarde do
evento final. Ela pode ser no mı́nimo igual à Tc do último evento, mas normalmente é maior que
esta, pois é boa prática admitir-se uma folga que possa cobrir algum imprevisto. Genericamente
falando, “data mais tarde” de um evento, representada por Tt , é a data mais tarde em que um
evento pode ocorrer sem causar um atraso na data final do plano. Em outras palavras, data
mais tarde de um evento é uma data-limite para que todas as atividades que convergem para
um evento se completem, sem que venham causar um atraso na data final, devido à falta de
tempo para que as atividades subseqüentes possam ser concluı́das.
O cálculo das datas Tt para todos os eventos inicia-se com a data mais tarde atribuı́da ao
evento final e prossegue deste para os eventos precedentes, até chegar ao evento inicial. A
data Tt de um evento-inı́cio qualquer é obtida subtraindo-se, da data mais tarde do evento-fim
correspondente, a duração da atividade subseqüente imediata. Assim,
Tt (i) = Tt (f ) − D(i, f ).
No caso de haver mais de uma atividade saindo do evento-inı́cio, o valor Tt deverá ser o
menor número obtido, caso contrário, a atividade à qual corresponde este menor valor não
poderá ser realizada sem “empurrar” as demais atividades subseqüentes e causas um atraso na
data final. Assim,
Como exemplo, retomando a Figura 2.30 e atribuindo, para fins didáticos, uma data mais
tarde do evento final igual à data mais cedo do mesmo, podemos agora completar a Figura 2.30
com as Tt de todos os eventos, anotando-as na parte inferior dos retângulos e obtendo a Figura
2.31.
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 49
X Folgas
Chama-se de eventos crı́ticos aqueles com as menores folgas entre todos os demais. A
importância dos eventos crı́ticos reside no fato de que eles constituem pontos importantes
de controle do andamento do projeto. Além disso, eles ajudam a determinar o caminho
crı́tico, conforme veremos a seguir.
– Folga total de uma atividade, representada por F T , é o atraso máximo que uma
atividade pode ter sem causar um atraso na data final do plano. Por isso, deve ser
cuidadosamente controlada pelo responsável pelo projeto como um todo. É calculada
como:
F T (i, f ) = Tt (f ) − Tc (i) − D(i, f ).
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 50
– Folga livre de uma atividade, representada por F L, é o atraso máximo que uma
atividade pode ter sem causar um atraso na data de inı́cio de qualquer atividade
subseqüente. Deste modo, é um intervalo que pode ser usado livremente pelo res-
ponsável pela atividade, sem causar impacto às demais. É calculada com:
A partir das duas fórmulas anteriores, é fácil verificar que a folga total de uma atividade
é igual à soma de sua folga livre com a folga do seu evento-fim:
F T (i, f ) = F (f ) + F L(i, f ).
A expressão acima ajuda a evidenciar o fato de que, se a folga livre de uma atividade
for consumida, ela passará a afetar a folga do seu evento-fim, ou seja, o andamento das
atividades subseqüentes. Chama-se de atividade crı́tica aquela cujas folgas totais são as
menores entre todas as demais. Qualquer atraso em tais atividades, resultará no atraso
da data final ou no comprometimento da folga total do plano (folga do evento final). Por
isso, é importante identificá-las e acompanhar seu andamento de maneira restrita. As
atividades crı́ticas determinam a existência de um ou mais caminhos crı́ticos na rede de
eventos, conforme descrito na seção seguinte.
Como exemplo, podemos completar a Figura 2.31 com as folgas total e livre de cada
atividade, obtendo a Figura 2.32. Tais folgas estão colocadas entre parênteses, em que o
número superior é a folga total e o inferior, a folga livre.
X Caminho crı́tico
2. Identifica as atividades crı́ticas, as quais não podem sofrer atrasos, permitindo um controle
eficaz sobre as tarefas prioritárias;
3. Se for necessária uma redução da data final, permite priorizar as atividades cuja redução
terá maior impacto sobre a antecipação da data final. Sobre tais atividades, deverão con-
vergir os esforços para redução de suas durações ou para a busca de soluções alternativas.
É importante observar que pode haver mais de um caminho crı́tico no plano. A Figura 2.33
mostra um exemplo de diagrama de atividades para a confecção de apostilas. Neste caso, o
evento final tem folga positiva (3). Existem dois caminhos crı́ticos: 10-20-60-70 e 10-30-50-60-
70. Note que a atividade (20, 50), embora esteja entre dois nós crı́ticos, não é uma atividade
crı́tica, pois sua folga (13 − 3 − 2 = 8) é maior que a folga do evento final (3). Portanto, o
caminho 10-20-50-60-70 não é um caminho crı́tico.
• Listar as atividades: Com uma discussão entre os membros da equipe, listar todas
as atividades necessárias para completar o plano. O nı́vel de detalhamento depende do
quão crı́tico é o plano e do grau de controle que se deseja ter sobre ele. Quanto maior o
detalhamento, menor a possibilidade de erros grandes.
• Esboçar as setas e eventos: Uma vez posicionadas todas as cartelas, desenhar a lápis
as setas e nós correspondentes a todas as atividades;
• Anotar as durações das atividades: Anotar as durações de cada atividade nas respec-
tivas cartelas (parte inferior). Devem ser feitas estimativas, com a maior precisão possı́vel,
para a duração de cada atividade, com base em experiência anterior ou em informações
de trabalhos passados. Recomenda-se usar o número de dias, semanas ou horas como
unidade de tempo. Quando dados estatı́sticos confiáveis sobre a duração das atividades
estiverem disponı́veis, considerar a duração média;
2. As Sete Ferramentas Gerenciais da Qualidade (7FGQ) 54
• Desenhar a rede de eventos e atividades: “Passar a limpo” a rede até aqui esboçada,
desenhando-a na forma definitiva em uma ou mais folhas;
• Numerar os eventos: A partir do evento inicial, ao qual deve ser atribuı́do o número
00, numerar os eventos em ordem crescente, de acordo com sua ordem de precedência.
Não se deve numerar um evento sem que que todos os eventos precedentes tenham sido
numerados. Ou seja, toda seta deve dirigir-se de um evento de número mais baixo para
um número mais alto;
• Calcular as datas dos eventos: Anotar as durações das atividades, próximo ao ponto
médio das setas. Em seguida, conforme explicado anteriormente, calcular as datas mais
cedo e datas mais tarde de cada evento anotando-as nos locais apropriados dos retângulos
(Tc na parte superior e Tt na parte inferior);
Capı́tulo 3
• Como desdobrar conceitos que têm potencial de atender às necessidades do cliente em
produtos e serviços?
• Como selecionar o melhor conceito de produto entre muitos que estão sendo considera-
dos?
• Como projetar um produto que deva funcionar sob uma ampla variedade de condições
que podem ser encontradas durante a produção ou uso pelo cliente?
Como pode ser visto pela localização dos tipos de conhecimento, uma importante con-
tribuição de se usar QFD é a de quebrar as barreiras funcionais e encorajar o trabalho em
equipe para tentar satisfazer às necessidades dos clientes. O método QFD pode ser útil em
qualquer esforço de se estabelecer relações claras entre funções de produção e satisfação dos
clientes que não sejam facéis de se visualizar.
3. QFD - Desdobramento da Função Qualidade 59
Totais de Fatores
equipe tem que trabalhar junto a matriz e conseguir um consenso sobre qual valor inserir. Por
último o número de importância é multiplicado pelo número de impacto e esses são somados
na coluna para fornecer os valores de importância para o fator de controle particular.
O exemplo usado para ilustrar esse procedimento foi fornecido por uma equipe da End State
Chemical, produtora de Carbizeno. Uma equipe da fábrica trabalhava em melhorias no processo
de produção.
Passo 2 Logo abaixo da necessidade do cliente, marque uma das três opções “produto”,
“serviço” ou “processo” para indicar em qual desses três está o foco do esforço de melho-
ria, e em seguida escreva o nome desse esforço de melhoria na linha correspondente. Logo
abaixo, marque a opção apropriada para indicar se se trata de um esforço de desenho ou
redesenho.
Passo 4 Na terceira coluna à esquerda documente os valores atuais de “meta” para cada cara-
cterı́stica de qualidade. Essas metas podem ser na forma de um valor ótimo quantitativo
desejado, gama de valores, condição ou direção. Todas essas metas para as caracterı́sticas
do Carbizeno estão na forma de direções desejadas (↑ ou + e ↓ ou −). Veja a Figura 3.3.
Passo 6 Se esse for um esforço de redesenho, vá para a segunda coluna à direita e coloque um
valor que indique a satisfação atual do cliente com o produto, serviço ou processo existente,
para cada caracterı́stica de qualidade mensurável. Como no Passo 5, uma escala simples
de valores pode variar de 1 a 5, mas aqui o valor de 1 representa “muito satisfeito” e um
valor 5 significa “muito insatisfeito”. É importante observar que aqui números maiores
representem nı́veis maiores de insatisfação, devido ao método de priorização no Passo 12.
Agora, na última coluna da direita, coloque um valor similar para um produto ou serviço
alternativo importante disponı́vel para o cliente sobre o qual seja útil saber a respeito.
Assim como no Passo 5, deve haver documnetação de apoio a respeito das origens dos
valores. É evidente, pelos valores da Planilha da Figura 3.3, que os clientes de Carbizeno
estão mais satisfeitos com o produto da End State em termos de baixa concentração
e baixa variação de endeno, e mais insatisfeitos com a alta cor e variação excessiva de
materiais estranhos. Esses valores podem ser comparados com os do principal competidor
da End State observando os valores na coluna adjacente.
3. QFD - Desdobramento da Função Qualidade 65
Passo 8 Agora, usando o formato de matriz dentro do corpo principal da “casa”, coloque
valores numéricos para cada local de fator/caracterı́stica de qualidade que expresse a
crença atual sobre a força da relação entre o fator e a caracterı́stica de qualidade. Use
0 para representar “nenhuma relação”, 1 para representar uma “relação fraca”, 3 para
representar uma “relação moderada” e um “5” para representar uma “relação forte”. Se
atualmente não se souber se existe ou não uma relação entre um dado fator e uma dada
caracterı́stica de qualidade, deixe o espaço em branco.
Passo 9 Em cada coluna de fator na terceira linha a partir do fim da planilha, coloque o valor
atual da meta para esse fator. Se desconhecido deixe em branco. A documentação de
apoio deve indicar se essas metas são “dependentes” das condições de outros fatores. Esse
tipo de dependência também será realçado no “telhado” da casa, que será discutido no
passo 10.
3. QFD - Desdobramento da Função Qualidade 67
Passo 10 Utilizando a matriz no “telhado” da casa repita o Passo 8, mas coloque agora
números para representar a força da relação para quaisquer pares de fatores que se julgue
relacionados. Em outras palavras, se acredita-se que mudar um fator causa mudança em
outro fator, isso deve ser realçado no espaço apropriado da matriz telhado. Na Figura
3.5 pode ser visto que a equipe acreditou que uma mudança na temperatura de reação
afetaria fortemente o tempo de reação. Relacionando essa relação com a lista de cara-
cterı́sticas de qualidade, o “melhor” de reação para a produção ótima de Carbizeno será
dependente das condições de temperatura da reação. Na linguagem de planejamento de
experimentos, existe uma “interação” entre esses dois fatores quanto ao seu efeito na
produção de Carbizeno. A abundância de espaços em branco no telhado da casa é uma
indicação de que o conhecimento da equipe quanto a relações entre fatores é fraco.
Passo 13 Verifique quais mudanças se pode fazer para alcançar uma melhoria, considerando
fazer experimentos em:
Para a equipe da End State os quatro mais altos fatores de alavancagem foram:
3. Temperatura de reação;
As metas foram todas claras nesse caso. A cor e variação na quantidade de materiais
estranhos são as caracterı́sticas de qualidade que mais causam insatisfação no cliente. Há
muitos efeitos de fatores que são desconhecidos, tais como quantidade de catalisador e
cor. A equipe da End State planejará experimentos usando os fatores de alavancagem
importantes, os fatores onde os efeitos são desconhecidos e os fatores que parecem ter o
maior potencial para afetar a cor e a variação na quantidade de material estranho.
Passo 14 Planeje, priorize e efetue ciclos PDSA. Baseada em sua “Casa de Qualidade” ini-
cial completa (Figura 3.5) a equipe da End State Chemical ficou preocupada, acima de
tudo, com sua falta de conhecimento sobre efeitos de interação potenciais, representados
pelos espaços em branco no telhado da casa. Devido a sua alta alavancagem, tanto na
importância para o cliente quanto no nı́vel atual de satisfação do cliente, o “fluxo de
produto no topo da torre” e a “quantidade de reagente quı́mico B” foram incluı́dos como
fatores para estudo em ciclos iniciais.
Passo 15 Atualize a Planilha QFD à medida que as mudanças forem feitas e novos conheci-
mentos forem obtidos.
3. QFD - Desdobramento da Função Qualidade 71
Nota: Essas instruções são fornecidas como orientação. Pode não ser sempre apropriado
efetuar todos os passos. Use seu julgamento para determinar quais passos são úteis em situações
especı́ficas.
Para a equipe da End State os quatro mais altos fatores de alavancagem foram:
3. Temperatura de reação;
• Uma análise completa do QFD pode se tornar muito complexa para os produtos com
muitos componentes. Mesmo com essa complexidade, muitas organizações acharam o
método útil para desenho e redesenho de produto.
3. QFD - Desdobramento da Função Qualidade 72
3.5 Exercı́cios
Exercı́cio 6. Identifique uma “necessidade” importante para seus clientes. Use o Diagrama
de Caracterı́stica de Qualidade (Tabela 3.2) para desenvolver caracterı́sticas de qualidade para
produtos que atendam a essa necessidade.
Necessidade do Cliente:
Caracterı́stica de Qualidade1 : Uma caracterı́stica, de preferência
mensurável, de um dado ou resultado de um processo, ou uma
medida de desempenho de um processo.
Primária2 Secundária3 Terciária3
(Palavras do cliente)
Notas:
1) Não incluir fatores de desenho nessa lista.
2) Expressar na linguagem do cliente.
3) Para acrescentar mais detalhes, subdividida em duas ou mais
caracterı́sticas de qualidade.
Capı́tulo 4
Introdução à Estatı́stica
4.1 Introdução
Neste capı́tulo, vamos apresentar os elementos básicos da análise de dados. Veremos as
Estatı́sticas Descritivas utilizadas para organizar, resumir e descrever os aspectos importantes
do comportamento dos dados. A descrição dos dados também pode identificar anomalias, até
mesmo resultantes do registro incorreto de valores e valores extremos (aqueles que não seguem
a tendência geral do restante do conjunto de dados). As ferramentas descritivas são os muitos
tipos de gráficos e tabelas, bem como as medidas de sı́ntese: medidas de posição e medidas de
dispersão.
Sempre que resumimos um conjunto de dados, perdemos informação sobre o mesmo, pois
condensamos as observações originais. Entretanto, esta perda de informação é pequena se
comparada ao ganho que se tem com a clareza da interpretação proporcionada.
Em geral, manipulamos um conjunto de dados com o objetivo de extrairmos informação
sobre o comportamento de um processo ou produto. A Estatı́stica utiliza a variabilidade pre-
sente nos dados para obter tal informação. A variabilidade está presente em todo lugar. Por
exemplo, a posição de um carro estacionado em uma garagem não é a mesma ao longo dos dias.
Neste caso, a posição do carro apresenta uma variação.
Nossa estratégia consiste em avaliar as variações e obter informação através dela.
A aplicação de técnicas estatı́sticas envolve várias etapas:
• Coleta de dados;
• Modelos Estatı́sticos.
4. Introdução à Estatı́stica 75
• Não se deve coletar dados sem que antes se tenha definido claramente o problema ou
situação a ser enfrentada, bem como os objetivos com relação aos mesmos;
• Os cálculos e leituras devem ser feitos com muita atenção para evitar distorções;
• Devem ser utlizados formulários adequados para coleta de dados de acordo com o problema
estudado.
Para estudarmos adequadamente uma população através de uma amostra, devemos planejar
a coleta de dados.
4. Introdução à Estatı́stica 76
O diagrama da Figura 4.2 representa o ciclo que ocorre durante a tentativa de resolução de
um problema.
Portanto, a coleta de dados é um procedimento necessário na resolução de problemas. Entre-
tanto, se não tivermos bons métodos para essa coleta, podemos cometer erros de interpretação.
Um bom planejamento para coleta de dados deve considerar as seguintes perguntas:
• Qual tipo de dado é necessário para utilizar as ferramentas desejadas e responder a per-
gunta?
• Definir quais informações adicionais serão necessárias para estudos futuros, referências ou
reconhecimento.
• Dado qualitativo nominal - Para o qual não existe nenhuma ordenação nas possı́veis
realizações;
• Dado qualitativo ordinal - Para o qual existe uma ordem em seus resultados.
Sexo, estado civil, são exemplos de dados qualitativos nominais. Entretanto, grau de in-
strução é um exemplo de um dado qualitativo ordinal, pois ensinos: fundamental, médio ou
superior correspondem a uma ordenação, da mesma forma que classificar um produto em: bom,
razoável ou ruim.
Exemplo 4.1. Uma indústria de calculadoras eletrônicas, preocupada com vários defeitos que
um de seus produtos vem apresentando, fez um levantamento e constatou os seguintes problemas:
• B: Defeito no teclado;
• D: Soldas soltas;
• F: Defeito no visor;
• G: Outros.
Nesta situação, para cada item inspecionado, existe uma variável T que representa o tipo de
defeito encontrado. Portanto, essa variável T pode assumir os valores: T = A, T = B, · · · ,T =
G. Logo, por exemplo, para uma calculadora com defeito na cobertura plástica, temos que
T = A.
Numa segunda fase, devemos construir uma Tabela dos valores observados.
4. Introdução à Estatı́stica 79
Neste caso, a caracterı́stica observada assume valores numéricos que podem ser classificados
em “discretos” ou “contı́nuos”.
Tabela 4.2: Número de peças defeituosas em lotes de 1.000 peças (com apuração)
Número de peças Apuração Número de lotes
defeituosas
7 / 1
8 // 2
9 ///// 5
10 //////// 8
11 /// 3
12 / 1
Portanto, a variável “número de peças defeituosas” assume valores discretos, isto é, inteiros:
· · · , 7, 8, 9, · · · .
4. Introdução à Estatı́stica 80
Exemplo 4.3. Numa fábrica de motores elétricos, o gerente de produção precisa avaliar o
problema de ruı́do excessivo do motor. Uma das possı́veis causas está associada com variações
no diâmetro do eixo. Assim, o gerente de produção mediu o diâmetro do eixo de 200 motores
e o resultado está apresentado na Tabela 4.3. Os valores estão em milésimos de milı́metros.
Ao estabelecermos intervalos de classes, estamos admitindo que o eixo pode assumir qualquer
valor entre o limite inferior (inclusive) e o limite superior (exclusive).
A exposição dos dados pode ser feita através de tabelas e/ou gráficos. Inúmeros gráficos
auxiliam na apresentação e interpretação dos dados.
Nas próximas seções destacaremos os mais usuais na indústria.
1. Realize uma reunião com a equipe para selecionar o tópico a ser avaliado. Por exemplo,
podemos avaliar tipos de defeitos, custo de manutenção por equipamento, entre outros.
3. Especifique o perı́odo de tempo em que os dados serão coletados. Exemplo: Uma semana,
um mês.
4. Elabore uma planilha de dados, com as seguintes colunas: Categorias, Quantidades (totais
individuais), Totais acumulados, Porcentagens, Porcentagens acumuladas.
5. Colete os dados necessários para cada categoria. Exemplo: Defeito A ocorreu X vezes ou
defeito C custou Y.
7. Marque o eixo horizontal no lado esquerdo com a escala de zero até o total da coluna
Quantidade da planilha de dados. Identifique o nome da variável representada neste eixo
e a unidade de medida utilizada, caso seja necessário.
8. Marque o eixo vertical do lado direito com uma escala de zero até 100%. Identifique este
eixo como “Porcentagem acumulada”(%).
10. Identifique cada intervalo do eixo horizontal escrevendo os nomes das categorias, na
mesma ordem em que eles aparecem na planilha de dados.
11. Construa um gráfico de barras utilizando a escala do eixo vertical do lado esquerdo. Para
construir um gráfico de barras, acima de cada categoria, basta desenhar um retângulo
cuja a altura representa a frequência ou custo daquela categoria.
Exemplo 4.4. Uma indústria de computador preocupada com vários defeitos que um de seus
produtos vem apresentando, fez um levantamento e constatou os seguintes problemas:
• B : Defeito no teclado.
• D : Soldas soltas.
• F : Defeito no visor.
• G : Outros.
Exercı́cio 9. Uma empresa da área automobilı́stica acompanha os custos associados aos defeitos
encontrados nos equipamentos enviados para a calibração. Na Tabela 4.7 apresentamos os
dados referentes a um mês de acompanhamento dos defeitos encontrados nos equipamentos das
diversas áreas.
4. Introdução à Estatı́stica 87
Tabela 4.7: Custos associados aos defeitos encontrados nos equipamentos enviados para a
calibração
Centro de Custo Calibrados Reprovados Proporção Custo Custo Proporcional
Pré-Usinagem 25 9 540
Tratamento Térmico 18 12 800
Fundição 32 10 860
Usinagem 112 45 4050
Tratamento Superficial 28 13 1300
TOTAL 215
2. li a Li, onde o limite superior da classe é incluı́do na contagem, mas o inferior não.
Podemos escolher qualquer uma destas opções, mas é importante que deixemos claro no
texto ou na tabela qual delas está sendo usada. Embora não seja necessário, os intervalos
4. Introdução à Estatı́stica 91
são freqüentemente construı́dos de modo que todos tenham larguras iguais, o que facilita as
comparações entre as classes.
Na tabela de distribuição de freqüência, acrescentamos uma coluna com os pontos médios
de cada intervalo de classe, denotada por xi . Esta é definida como a média dos limites da classe
li +Li
xi = 2
. Estes valores são utilizados na construção de gráficos.
• Determine o número de classes, levando em consideração que este não seja superior a 20.
A seguir, apresentamos um critério para determinar os intervalos.
Como exemplo, uma construção de intervalos para os dados do Exemplo 4.3 e as respectivas
freqüências é dado a seguir.
4. Introdução à Estatı́stica 92
Exercı́cio 11. Em uma fábrica de auto peças, uma arruela de vedação estava causando incon-
veniente na montagem de uma parte de um automóvel. Para buscar informações, decidimos
medir a espessura de 200 arruelas, cujos valores foram:
4. Introdução à Estatı́stica 93
4.6 Histograma
Histograma é uma representação gráfica (um gráfico de barras verticais ou barras hor-
izontais) da distribuição de frequências de um conjunto de dados quantitativos contı́nuos. O
histograma pode ser um gráfico por valores absolutos ou freqüência relativa ou densidade. No
caso de densidade, a freqüência relativa do intervalo i (f ri ) é representada pela área de um
retângulo que é colocado acima do ponto médio da classe i. Conseqüentemente, a área total do
histograma (igual a soma das áreas de todos os retângulos) será igual a 1. Assim, ao construir o
histograma, cada retângulo deverá ter área proporcional à freqüência relativa (ou à freqüência
absoluta, o que é indiferente) correspondente. No caso em que os intervalos são de tamanhos
(amplitudes) iguais, as alturas dos retângulos serão iguais às freqüências relativas (ou iguais às
freqüências absolutas) dos intervalos correspondentes.
Como a tabela de freqüência, o histograma tem a caracterı́stica de analisar as relações essen-
ciais que os dados apresentam, e ainda verificar algumas suposições.
• X: média amostral.
• n: tamanho da amostra.
X1 + . . . + Xn
X= . (4.1)
n
4. Introdução à Estatı́stica 96
Exemplo 4.7. Uma amostra de 5 barras de aço foi retirada da linha de produção e seus
comprimentos foram medidos. Os valores foram: 4,5; 4,6; 4,5; 4,4; 4,5.
4, 5 + 4, 6 + 4, 5 + 4, 4 + 4, 5
X= .
5
4.7.2 Mediana
Para calcular a mediana devemos, em primeiro lugar, ordenar os dados do menor para
o maior valor. Se o número de observações for ı́mpar, a mediana será a observação central.
Se o número de observações for par, a mediana será a média aritmética das duas observações
centrais.
Notação:
• X:
e mediana.
Exemplo 4.8. Uma amostra de 7 caixas de um dispositivo eletrônico, com 100 unidades por
caixa, apresentou os seguintes números de dispositivos defeituosos por caixa: 27, 5, 10, 7, 8,
12, 9.
Ordenando os valores, temos: 60, 65, 67, 68, 69, 70, 72, 77.
Como o número de observações é par, a mediana é dada pela média dos dois valores centrais
que são 68 e 69, isto é,
e = 68 + 69 = 68, 5.
X
2
4. Introdução à Estatı́stica 97
4.8.1 Amplitude
Para calcular a amplitude, fazemos a diferença entre o maior e o menor valor do conjunto
de dados.
Notação:
• R: amplitude.
Exemplo 4.10. As temperaturas registradas em um perı́odo de 8 horas foram: 18, 21, 22, 17,
19, 24, 21, 20.
4.8.2 Variância
É uma medida da sua dispersão estatı́stica, indicando quão longe, em geral, os seus valores
se encontram do valor esperado. A variância de uma população é definida como sendo o valor
esperado do quadrado do desvio de X da sua própria média, ou seja, é a média do quadrado
da distância de cada ponto até a média.
A variância de uma amostra de n elementos é definida como a soma dos quadrados dos
desvios de elementos em relação à sua média dividido por (n − 1). Assim, a variância amostral
(s2 ) é dada por
4. Introdução à Estatı́stica 98
n
X
(Xi − X)2
i=1
s2 = . (4.3)
n−1
65 + 72 + 70 + 77 + 60 + 67 + 69 + 68
X= = 68, 5.
8
Posteriormente, devemos subtrair X de cada valor, elevar os resultados ao quadrado e somá-
los.
(x − X) (X − X)2
65 - 68,5 = -3,5 (−3, 5)2 = 12,25
72 - 68,5 = 3,5 (3, 5)2 = 12,25
70 - 68,5 = 1,5 (1, 5)2 = 2,25
77 - 68,5 = 8,5 (8, 5)2 = 72,25
60 - 68,5 = -8,5 (−8, 5)2 = 72,25
67 - 68,5 = -1,5 (−1, 5)2 = 2,25
69 - 68,5 = 0,5 (0, 5)2 = 0,25
68 - 68,5 = 0,5 (0, 5)2 = 0,25
Total = 174,00
Daı́ dividimos o total dos quadrados pelo número de valores menos 1, ou seja, por (n − 1)
e extraı́mos a raiz quadrada
174 √
= 24 ⇒ s = 24 ⇒ s = 4, 9.
7
4. Introdução à Estatı́stica 99
– Q1 (primeiro quartil): Número que deixa 25% das observações abaixo e 75% acima.
– Q3 (terceiro quartil): Número que deixa 75% das observações abaixo e 25% acima.
[(Xi − X)/S]3
P
b1 = .
n
• Curtose: É uma medida referente à diferença entre a distribuição que está sendo analisada
e a distribuição normal. Um valor positivo costuma indicar um pico mais agudo, um
corpo mais fino e uma cauda mais gorda que a cauda da distribuição normal. Um valor
negativo indica um pico mais tênue, um corpo mais grosso e uma cauda mais fina que a
da distribuição normal. A Curtose é dada por
P 4
[(Xi − X)/S]
b2 = − 3.
n
Figura 4.13: Curtose positiva (caudas mais alongadas) e Curtose negativa (caudas mais curtas),
respectivamente.
4. Introdução à Estatı́stica 101
Exemplo 4.12. Consideremos uma amostra do comprimento de 11 rolos de fio de aço cujos
valores são: 72, 70, 77, 60, 67, 69, 68, 66, 65, 71, 69.
Os dados ordenados de forma crescente são: 60, 65, 66, 67, 68, 69, 69, 70, 71, 72, 77, onde
o M in = 60 e o M ax = 77.
11 + 1
Posição do Q1 = =3 ⇒ Q1 = 66.
4
11 + 1
Posição do Q3 = 3 =9 ⇒ Q3 = 71.
4
Assimetria
4.10 Boxplot
O boxplot (gráfico de caixa) é importante para descrever vários aspectos dos dados,
entre estes, apresentar de forma visual a diferença entre o terceiro e primeiro quartil. O boxplot
é formado pelo primeiro e terceiro quartil e pela mediana. As linhas verticais são estendidas
até os limites:
Para este caso, os pontos fora destes limites são considerados valores discrepantes (out-
liers) e são denotados por asterisco (*). A Figura 4.14 apresenta um exemplo do formato de
um boxplot.
4. Introdução à Estatı́stica 102
O boxplot pode ainda ser utilizado para uma comparação visual entre dois ou mais grupos.
Por exemplo, duas caixas são colocadas lado a lado e se compara a variabilidade entre elas, a
mediana e assim por diante.
4.11 Dotplot
O gráfico Dotplot (gráfico de pontos) representa cada observação obtida em uma escala
horizontal, permitindo visualizar a distribuição dos dados ao longo deste tempo. No eixo
horizontal, divide-se a escala dos valores em pequenos intervalos, sendo marcado um ponto por
observação.
O Dotplot, ou gráfico de pontos, é muito útil para visualizar estratificações. A estrati-
ficação é uma técnica que agrupa dados em subgrupos, de acordo com determinados critérios,
aumentando o poder da análise.
Considerando novamente o exemplo 4.13, temos que o Dotplot é dado por
uma medida em um determinado intervalo. Por exemplo, a freqüência relativa deste inter-
valo, observada à partir de uma amostra de medidas, é a aproximação da probabilidade. A
distribuição de freqüências é a aproximação da distribuição de probabilidades.
Veremos a diante como testar se os dados seguem uma distribuição Normal ou não. Se
concluirmos que há normalidade, é possı́vel calcular probabilidades de intervalos de medida,
calculando a área sob a curva naquele intervalo.
Para achar a área sob a curva Normal devemos conhecer dois valores numéricos (também
chamados de parâmetros), que são: média µ e desvio padrão σ.
O gráfico a seguir mostra algumas áreas importantes
Quando µ e σ são desconhecidos (caso mais comum), estes valores serão estimados por X̄ e
s, respectivamente, a partir da amostra.
Observação: Áreas sob a curva Normal são probabilidades, que na prática, são dadas em
percentagens.
Para cada valor de µ e/ou σ temos uma curva de distribuição de probabilidade. Porém,
para se calcular áreas especı́ficas, faz uso de uma distribuição particular: a “distribuição normal
padronizada”, também chamada de Standartizada ou reduzida. Para obter tal distribuição, isto
é, quando se tem uma variável X com distribuição normal com média µ diferente de 0 (zero)
e/ou desvio padrão σ diferente de 1 (um), devemos reduzı́-la a uma Z, efetuando o seguinte
cálculo
x − µ
Z = .
σ
Logo, a distribuição passa a ter média µ = 0 e desvio padrão σ = 1. Pelo fato da distribuição
ser simétrica em relação à média µ = 0, a área à direita é igual a área à esquerda de µ. Assim, a
4. Introdução à Estatı́stica 105
tabela fornece áreas acima de valores não-negativos que vão desde 0,00 até 4,09. Veja o gráfico
da curva Normal padronizada na Figura 4.18.
Exemplo 4.14. Calcular a área sob a curva para Z maior que 2,748.
A área sob a curva normal para Z maior do que 2,748 é 0,0027, ou seja, a probabilidade de
Z ser maior do que 2,748 é 0,027%. Veja o gráfico na Figura 4.19.
A área sob a curva para Z maior do que 1,00 é 0,1587, ou seja, a probabilidade de Z ser
maior do que 1 é 15,87%. Veja o gráfico na Figura 4.20.
Exemplo 4.16. Calcular a área sob a curva para Z maior que 1,19.
A área sob a curva para Z maior do que 1,19 é 0,1170, ou seja, a probabilidade de Z ser
maior do que 1,19 é 11,70%. Veja o gráfico na Figura 4.21.
A área sob a curva para Z menor do que 2,00 não é fornecida diretamente pela Tabela da
distribuição normal padrão. Assim, devemos encontrar a área para Z maior do que 2,00, em
seguida calculamos 1 menos a área encontrada e temos a área desejada. Essa área é 0,0228. Fi-
nalmente, a área que nos realmente nos interessa é 1−0, 0228 = 0, 9772, ou seja, a probabilidade
de Z ser menor do que 2,00 é 97,72%. Veja o gráfico na Figura 4.22.
Exemplo 4.18. Considere os diâmetros dos eixos do Exemplo 4.3 como tendo distribuição
normal com média µ = 4, 888 e desvio padrão σ = 0, 31949. Calcular a probabilidade de um
eixo apresentar diâmetro inferior a 5, 0mm.
5, 0 − 4, 888
Z = = 0, 35.
0, 31949
Usando a tabela da normal padrão, temos que a área sob a curva é 0,3632, ou seja, a
probabilidade de um eixo apresentar diâmetro inferior a 5, 0mm é 1 − 0, 3632 = 63, 68%. Vejam
os gráficos nas Figuras 4.23 e 4.24.
4. Introdução à Estatı́stica 108
Exemplo 4.19. Suponha que a espessura das arruelas no exercicio 11 tenha distribuição normal
com média 11,15 e desvio padrão 2,238. Qual a porcentagem de arruelas que tem espessura
entre 8,70 e 14,70mm?
O segundo ponto é
14, 70 − 11, 15
Z2 = = 1, 58.
2, 238
A área para valores maiores do que 1, 58 é 0, 0571, ou seja, 5, 71%.
Logo, a porcentagem de arruelas com espessura entre 8,70 e 14,70 (limites de tolerância da
especificação) é somente de 80,50%. Portanto, cerca de 19,50% das arruelas não atendem aos
limites de especificações.
X −µ
Z= √ ∼ N (0, 1).
σ/ n
Assim, o teorema central do limite garante que, para n grande, a distribuição da média
amostral, devidamente padronizada, se comporta segundo um modelo normal com média µ = 0
e variância σ 2 = 1. De imediato, podemos notar a importância do teorema central do limite, pois
em muitas situações práticas, em que o interesse reside na média amostral, este teorema permite
que utilizemos a distribuição normal para estudar X probabilisticamente. Pelo teorema temos
que quanto maior a amostra, melhor é a aproximação. Estudos envolvendo simulações mostram
que, em muitos casos, valores em torno de 30 fornecem boas aproximações para as aplicações
práticas. Em casos em que a verdadeira distribuição é simétrica, excelentes aproximações são
obtidas mesmo com valores de n inferiores a 30.
Vamos justificar o intuito matemático de modo mais instrutivo.
4. Introdução à Estatı́stica 111
Note que o gráfico mostra que o conjunto de dados segue uma distribuição não simétrica.
Vamos agora agrupar os valores do conjunto de dados em grupos de 5 e tirar a média de cada
grupo. Podemos observá-los na Figura 4.29.
Percebemos que a média dos dados foi deslocada, fazendo com que os dados mudassem sua
caracterı́stica de assimetria. Novamente, vamos agrupar os dados em grupos de 5 e tirar a
média. O resultado está na Figura 4.30.
Como podemos perceber, o gráfico representado na Figura 4.30, já possui uma distribuição
similar a da distribuição normal.
H : a amostra tem distribuição Normal
0
(4.5)
H : a amostra não tem distribuição Normal
1
Anderson e Darling (1952, 1954) propuseram a seguinte estatı́stica para testar essas hipóteses:
∞
[Fn (x) − F (x)]2
Z
2
A =n dF (x) (4.6)
−∞ F (x)(1 − F (x))
onde Fn (x) é a função de distribuição acumulada empı́rica definida como
0, se x < x(1)
Fn (x) = k (4.7)
n
, se x(k) ≤ x < x(k+1)
1, se x > x
(n)
n
2 1 X
A = −n − (2i − 1) ln( F (x(i) ) ) + ( 2(n − i) + 1 ) ln(1 − F (x(i) ) ) (4.8)
n i=1
D
A2 = −n − , (4.9)
n
sendo que
n
X
D= (2i − 1) ln( F (x(i) ) + ( 2(n − i) + 1 ) ln(1 − F (x(i) ) .
i=1
4. Introdução à Estatı́stica 116
A transformação F (x(i) ) leva x(i) em U(i) de uma amostra de tamanho n com distribuição
Uniforme em (0, 1). Logo,
n
2 1 X
A = −n − (2i − 1) ln( U(i) ) + ( 2(n − i) + 1 ) ln(1 − U(i) ) (4.10)
n i=1
que é equivalente a
n
2 1X
A = −n − (2i − 1) ln( U(i) ) + ln(1 − U(n+1−i) )
n i=1
x(i) − x
3) Padronize os dados, isto é, calcule z(i) = s ;
5) Para cada uma das distribuições calcule, se for o caso, o valor da estatı́stica modificado
de acordo com as tabelas dadas para cada uma delas.
O Teste Anderson-Darling pode ser aplicado às distribuições de probabilidade como: Dis-
tribuição Normal, Exponencial, Weibull, Lognormal, Valor Extremo e Logı́stica. Para estas
distribuições o parâmetro θ = (α, β) pode ser univariado ou bivariado, isto é, ele tem no
máximo dois componentes, conforme os seguintes casos:
Caso 2 : α é conhecido;
Caso 3 : β é conhecido;
(x − µ)2
1
f (x) = √ exp − (−∞ < x < ∞),
2πσ 2 2σ 2
Exemplo 4.20. Considere as seguintes medidas de peso de peças (em pounds) 148, 154, 158,
160, 161, 162, 166, 170, 182, 195, 236.
Vamos testar:
H : Os dados seguem uma distribuição Normal
0
H : Os dados não seguem uma distribuição Normal
1
= −131, 4145
D 131, 4145
A2 = − −n= − 11 = 0, 9467719.
n 11
4. Introdução à Estatı́stica 119
Am = A2 × (1 + (4/n) − (25/n2 ))
Na Tabela (4.19) vimos que o P-valor é aproximadamente 1%. Assim, existe forte evidência
de que os dados não têm distribuição Normal. Podemos ainda realizar uma análise gráfica,
como mostra a Figura 4.31 onde notamos que os pontos estão distribuı́dos de forma aleatória
em torno da reta.
Este teste observa a máxima diferença absoluta entre a função de distribuição acumulada
assumida para os dados, no caso a Normal, e a função de distribuição empı́rica dos dados.
Como critério, comparamos esta diferença com um valor crı́tico (Tabela 4.21), para um dado
nı́vel de significância.
4. Introdução à Estatı́stica 120
Esta função corresponde a distância máxima vertical entre os gráficos de F (x) e Fn (x) sobre a
amplitude dos possı́veis valores de x, onde
Sejam X(1) , X(2) , · · · , X(n) observações aleatórias ordenadas de forma crescente da variável
aleatória contı́nua X. A função de distribuição acumulada assumida para os dados é definida
por F (x(i) ) = P (X ≤ x(i) ) e a função de distribuição acumulada empı́rica é definida por uma
função escada, dada pela fórmula:
n
1X
Fn (x) = I{(−∞, x]} (x(i) ) (4.11)
n i=1
Essas estatı́sticas medem as distâncias (vertical) entre os gráficos das duas funções, teórica e
4. Introdução à Estatı́stica 121
empı́rica, nos pontos x(i−1) e x(i) . Com isso, podemos utilizar como estatı́stica de teste:
Dn = max(D+ ; D− )
Se Dn for maior que o valor crı́tico encontrado na Tabela 4.21, rejeitamos a hipótese de
normalidade dos dados com (1−α)100% de confiança. Caso contrário, não rejeitamos a hipótese
de normalidade.
Nı́vel de Significância (α)
n 0,2 0,1 0,05 0,01
5 0,45 0,51 0,56 0,67
10 0,32 0,37 0,41 0,49
15 0,27 0,30 0,34 0,40
20 0,23 0,26 0,29 0,36
25 0,21 0,24 0,27 0,32
30 0,19 0,22 0,24 0,29
35 0,18 0,20 0,23 0,27
40 0,17 0,19 0,21 0,25
45 0,16 0,18 0,20 0,24
50 0,15 0,17 0,19 0,23
1,07 1,22 1,36 1,63
Valores maiores √
n
√
n
√
n
√
n
Tabela 4.21: Valores Crı́ticos para a estatı́stica do teste de Komolgorov - Smirnov (Dn ).
1,90642 2,10288 1,52229 2,61826 1,42738 2,22488 1,69742 3,15435 1,98492 1,99568
Após ordenar os dados, obtemos o valor de Fn (x(i) ) fazendo a razão entre a posição i e
o valor total de dados, n. O valor de F (x(i) ) é encontrado na tabela da distribuição Normal
padrão, após transformarmos os dados pela relação
x(i) − x
Z(i) =
s
Com isso,
Dn = max(0, 176868; 0, 109008) = 0, 176868.
Considerando α = 0, 05 e n = 10, encontramos pela Tabela 4.21 o valor crı́tico 0,41. Como
Dn = 0, 176868 < 0, 41 não temos evidências para rejeitar a hipótese de normalidade dos dados.
O resultado gráfico pode ser visto pela Figura 4.32. Notamos que os pontos estão distribuı́dos
próximos a reta, demonstrando tal fato.
4. Introdução à Estatı́stica 123
• Valor p próximo de 1, indica que não há evidência suficiente para rejeitar a H0 ;
Neste exemplo,
p-valor = P [D > Dn ] = 0.5011 > α = 0.05
Assim, como o p-valor foi maior que o nı́vel de significância adotado (0,05), não temos
evidências para afirmar que a amostra não provém de uma população normal.
4. Introdução à Estatı́stica 124
4.14.4 Shapiro-Wilk
onde xi são os valores da amostra ordenados (x1 é o menor). Menores valores de W são
evidências de que os dados são normais.
A constante b é determinada através da seguinte fórmula
n
2
X
b= an−i+1 × (xn−i+1 − xi ) (4.13)
i=1
onde ai são constantes geradas pelas médias, variâncias e covariâncias das estatı́sticas de ordem
de uma amostra de tamanho n de um distribuição Normal. Seus valores, tabelados, são dados
abaixo.
1. Formulação da Hipótese:
(c) Calcular b;
(d) Calcular W.
4. Tomar a decisão:
Rejeitar H0 ao nı́vel de significância α se: Wcalculado < Wα .
8 12 10 24 12 10 16 19 9 10
8 9 10 10 10 12 12 16 19 24
4. Introdução à Estatı́stica 126
Pn
Em seguida, calculamos i=1 (xi − x)2 = 236 e a constante b:
e por fim, W:
b2 14.08262
W = Pn 2
= = 0.840 (4.14)
i=1 (xi − x) 236
Pela regra de decisão do teste, Wcalculado = 0.840 < W(0.05;10) = 0.842, com o p-valor
calculado por P[W > Wcalculado ] = 0.0443 < α. Assim, podemos afirmar com nı́vel de
significância de 5% que a amostra não provém de uma população normal. Esse fato é confirmado
pela aleatoriedade dos pontos em torno da reta (Veja a Figura 4.35).
2,2 4,1 3,5 4,5 5 3,7 3 2,6 3,4 1,6 3,1 3,3 3,8 4,7 3,7 2,5
• Ordene os dados
P16
• Calcule a média (x) e a partir dela, a i=1 (xi − x)2
P
=
4. Introdução à Estatı́stica 128
• Calcule a constante b
Capı́tulo 5
Introdução ao CEP
Neste ponto se faz necessário descrever alguns termos que serão usados ao longo do texto
ao apresentarmos os métodos de controle.
5. Introdução ao CEP 130
1. O processo
Muita informação sobre o real desempenho do processo pode ser aprendida através de estudo
do resultado (saı́da) do processo. A informação mais útil sobre o desempenho de um processo
5. Introdução ao CEP 131
Uma ação sobre o processo é geralmente mais econômica quando realizada para prevenir
que as caracterı́sticas importantes (do processo ou do produto) variem muito em relação aos
seus valores-alvo. Isto mantém a estabilidade e a variação do resultado do processo dentro de
limites aceitáveis. Tal ação pode consistir em:
– Equipamento;
Os efeitos das ações deveriam ser monitorados, para que uma análise e ação posterior pudesse
ser tomada, se necessária.
Uma ação sobre o resultado é freqüentemente menos econômica quando se restringe a de-
tecção e correção do produto fora da especificação, não indicando o fato gerador do problema
5. Introdução ao CEP 132
5.2 Definições
Variabilidade: É o conjunto de diferenças nas variáveis (diâmetros, pesos, densidades, etc.)
ou atributos (cor, defeitos, etc.) presentes universalmente nos produtos e serviços resul-
tantes de qualquer atividade. As causas que produzem variabilidade nos processos são
classificadas em comuns ou aleatórias e especiais ou assinaláveis. As definições e exemplos
de ambos tipos estão na Tabela 5.1.
O objetivo é desenvolver uma estratégia de controle para o processo que nos permite separar
eventos relacionados à causas especiais de eventos relacionados à causas comuns (falhas na
sistemática do processo). Desta forma, para um dado processo, um gráfico de controle pode
indicar a ocorrência de causas especiais de variação .
5. Introdução ao CEP 133
– Este processo produz um resultado que esteja num estado de controle estatı́stico?
– O processo é capaz?
– O processo é confiável?
Muitas técnicas discutidas no APQP Manual 3 podem ser aplicadas para garantir um melhor
entendimento do processo. Estas atividades incluem:
• Reuniões em grupo
• Construção de uma planilha de FMEA (Failure Mode and Effect Analysis). A Análise
do Modo e Efeito de Falha (FMEA) é um estudo sistemático e estruturado das falhas
que podem ocorrer em qualquer parte de um sistema, para determinar o provável efeito
de cada uma sobre todas as outras peças do sistema e no provável sucesso operacional,
tendo como objetivo melhoramentos no projeto, produto e desenvolvimento do processo.
3
Chrysler, Ford end General Motors, (1995)
5. Introdução ao CEP 137
As cartas de controle desenvolvidas neste manual são ferramentas poderosas que devem ser
usadas durante todos os ciclos de melhoria do processo. Estes métodos estatı́sticos simples,
ajudam a distinguir as causas comuns e as causas especiais de variação do processo. Quando
um estado de controle do processo é alcançado o nı́vel atual da capacidade do processo pode
ser avaliado.
Uma vez adquirida uma compreensão melhor do processo, o processo deve ser mantido
dentro de um apropriado nı́vel de capacidade. Processos são dinâmicos e podem mudar. O
desempenho do processo deve ser monitorado, para que medidas eficazes de prevenção contra
mudanças indesejáveis possam ser executadas. A mudança desejável deve também ser entendida
e institucionalizada. Enfatizando novamente que, os simples métodos estatı́sticos explicados
nesta apostila podem ajudá-lo. Construção e uso de cartas de controle e outras ferramentas
permitirão um monitoramento eficiente do processo. Quando a ferramenta utilizada sinaliza
que uma mudança no processo ocorreu, medidas rápidas e eficientes podem ser aplicadas para
isolar as causas e agir sobre elas.
É muito fácil parar no estágio 2 do ciclo, mas é importante perceber que existe um limite para
os recursos de qualquer empresa. Muitos processos deveriam estar neste estágio. Entretanto,
falhar ao prosseguir para o próximo estágio neste ciclo pode resultar em uma desvantagem
competitiva muito significativa. A obtenção da “classe mundial” requer um esforço planejado
e constante para mover-se em direção ao próximo estágio do ciclo de melhoria do processo.
Aı́ neste ponto, os esforços têm sido dirigidos para estabilizar os processos e mantê-los
assim. Entretanto, para alguns processos, o cliente estará sensı́vel até mesmo a uma variação
dentro das especificações de engenharia. Nestes casos, o valor da melhoria contı́nua não será
percebido até que a variação diminua. Neste ponto, ferramentas adicionais para análise do
processo, incluindo métodos estatı́sticos mais avançados como delineamento de experimentos,
e cartas de controle avançados podem ser úteis.
A melhoria do processo através da redução de variação, especificamente envolve a introdução
(proposital) de mudanças dentro do processo, e a avaliação dos efeitos causados. O objetivo
é uma melhor compreensão do processo, para que as causas comuns de variação possam ser
5. Introdução ao CEP 138
• Aplicar o CEP para gerenciar os dados e usar a informação para as decisões do dia a dia.4
Como a engenharia usa a informação para poder planejar e desenvolver produtos terão
influência no nı́vel de variação do produto final.
A seguir temos algumas maneiras de como a engenharia pode mostrar o uso efetivo do CEP:
• Dar suporte para que os funcionários envolvidos no processo façam treinamentos adequa-
dos;
• Exigir um melhor entendimento da variação e estabilidade em relação aos dados que são
usados no desenvolvimento do projeto;
• Favorecer as mudanças na engenharia do produto que foram fruto das análises do CEP e
que podem ajudar na diminuição da variação.
5.5.3 Manufatura
• Aplicar o CEP para entender a variação e estabilidade dos dados que serão usados no
desenvolvimento do processo;
• Assegurar que o uso correto das informações provenientes do programa de CEP estejam
sendo corretamente utilizadas.
5.5.5 Produção
As aplicações dos conceitos descritos acima irão resultar em um ambiente adequado para
a compreensão e redução da variação do processo. Então o conceito PLANEJE-FAÇA-
ESTUDE-AJA (PDSA) pode ser usado na melhoria do processo.
O uso correto do programa de CEP irá resultar numa organização focada na melhoria da
qualidade do produto e do processo.
141
Capı́tulo 6
1. Gráficos de Shewhart.
2. “Manter o estado de controle estatı́stico estendendo a função dos limites de controle como
base de decisões”.
3. “Apresentar informações para que sejam tomadas ações gerenciais de melhoria dos pro-
cessos”.
A forma mais usual dos gráficos de controle envolve registros cronológicos regulares
(dia-a-dia, hora-a-hora, etc) de uma ou mais caracterı́sticas (por exemplo, média, amplitude,
proporção, etc) calculadas em amostras obtidas de medições em fases apropriadas do processo.
Estes valores são dispostos, pela sua ordem, em um gráfico que possui uma linha central e dois
limites, chamados “limites de controle” (ver Figura 6.1).
Os gráficos de Shewhart fornecem assim uma regra de decisão muito simples: pontos
dispostos fora dos limites de controle indicam que o processo está “fora de controle”. Se
todos os pontos dispostos estão dentro dos limites e colocados de forma casual, consideramos
que “não existem evidências de que o processo esteja fora de controle”.
Mesmo que todos os pontos estejam dispostos entre os limites de controle, se eles se com-
portam de forma sistemática ou não aleatória, existe uma indicação de que o processo está fora
de controle. Por exemplo, se 18 dos 20 pontos dispostos estão entre a linha média e a linha
6. Gráficos ou Cartas de Controle 143
superior de controle, devemos suspeitar de que alguma coisa está errada. Se o processo está
sob controle, todos os pontos tem o mesmo princı́pio aleatório.
“As cartas de Shewhart são testes simples de aleatoriedade. Os movimentos para cima e
para baixo dos pontos não devem ser considerados pelo trabalhador a não ser que exista indı́cio
de uma causa especial. O ponto que cai fora dos limites de controle é um sinal estatı́stico que
indica a existência de uma causa especial de variação que pode ser quase sempre identificada e
corrigida pelo trabalhador da produção”(Deming).
Observa-se que no gráfico de X que existe um ponto fora dos limites de controle. No gráfico
da Amplitude, os pontos estão distribuı́dos de forma aleatória, dentro dos limites.
Seja qual for o tipo que se vai utilizar, é necessário que executem uma série de etapas
preparatórias para a sua aplicação:
3. Análise para escolha das caracterı́sticas de qualidade mais significativas, com foco no
cliente. A aplicação do gráfico de Pareto pode ter grande utilidade nessa etapa.
6. Gráficos ou Cartas de Controle 145
5. Escolha da fase do processo onde serão efetuados os registros, a fim de obter informações
que permitam, no caso em que causas especiais sejam detectadas, sua imediata e efetiva
correção para evitar os itens defeituosos.
Uma vez efetuada a fase preparatória, a elaboração dos gráficos deve obedecer os seguintes
passos:
2. Coleta de dados;
Para a coleta dos dados é necessário determinar o tamanho e a freqüência para cada
amostra, também chamada de subgrupos racionais. Aspectos relacionados a esta
questão serão tratados com maiores detalhes nas próximas seções e capı́tulos. Neste
momente é importante saber que essas escolhas dependem de vários fatores, como por
exemplo, tipo de gráfico, considerações econômicas, informação prévia sobre o processo,
etc.
No segundo caso, cada amostra consiste de itens que representam todos os itens produzi-
dos, desde a retirada da última amostra. Essencialmente, cada amostra representa toda
a produção durante um intervalo de tempo. Este método é utilizado quando o gráfico
de controle é empregado para uma tomada de decisão sobre a aceitação ou não dos itens
produzidos, desde a última retirada da amostra.
Supondo a utilização do primeiro método para seleção das amostras, pode ocorrer que
entre as coletas, o processo saia do estado de controle estatı́stico e volte para o estado de
6. Gráficos ou Cartas de Controle 147
controle entre as coletas. Neste caso, o segundo método de amostragem permite detectar
este comportamento tipo de comportamento impróprio. Portanto,
1. Os subgrupos devem ter o menor tamanho possı́vel para que as suas médias não
mascarem as mudanças.
A escolha dos limites de controle é uma decisão a ser tomada com base, essencialmente,
em critérios econômicos. O uso dos limites 3σ (3 sigma) está bastante generalizado, mas
existem situações onde é necessário aplicar outros critérios. Assim, por exemplo, se um
falso alarme (falso alarme acontece quando um sinal de fora de controle é gerado por um
processo sob controle) é muito caro ou difı́cil de investigar, poderá ser mais econômico
construir os gráficos com limites mais amplos, digamos 3,5σ ou até 4σ, se necessário.
Por outro lado, se o processo for rápido e economicamente investigado quando uma causa
especial for detectada, e o custo de produzir itens defeituosos for alto, limites mais estreitos
(2σ) deverão ser implantados.
destes gráficos. Os tipos de gráficos, procedimentos para sua construção são ilustrados
com estudos de casos, que são exemplos reais.
A medida que os dados são registrados no gráfico e comparados com os limites de controle,
o comportamento dos pontos em relação aos limites de controle indicam se o processo está
“fora de controle”ou “sob controle”estatı́stico. A ocorrência de um processo ”fora de cont-
role estatı́stico”exige a tomada de ações (geralmente locais). Após isso, novas observações
devem ser coletadas e, se necessário, os limites de controle devem ser recalculados para
estudar a presença de outras eventuais causas especiais de variação.
Figura 6.2: Exemplo do posicionamento dos limites de controle e da linha central para o gráfico
de X.
149
Capı́tulo 7
7.1 Gráficos X e R
Os gráficos X e R devem ser implementados simultaneamente, já que suas funções se
complementam. Um processo pode sair do controle por alterações no seu nı́vel ou na sua
dispersão. O gráfico tem por objetivo controlar a variabilidade no nı́vel do processo e detectar
a ocorrência de qualquer possı́vel mudança. Por outra parte, a dispersão de um processo pode
sofrer alterações por causas especiais, gerando defeitos, por exemplo, uma máquina cortadora
de placas que fica desajustada, talvez continue cortando com a média desejada, mas a falta de
ajuste se manifestará com um aumento da variabilidade, fato que será, provavelmente, detectado
pelo gráfico R de amplitude. O exemplo a seguir ilustra uma aplicação de gráficos X e R.
As seguintes etapas foram seguidas para a coleta das amostras e análise dos dados deste
exemplo:
4. Cálculo da média das médias amostrais e da média das amplitudes amostrais, os quais
são indicados, respectivamente, por X e R .
m
Soma das Médias Amostrais 1 X
X = = Xi
Número de Amostras m i=1
m
Soma das Amplitudes Amostrais 1 X
R = = Ri
Número de Amostras m i=1
0, 70 + 0, 77 + . . . + 0, 66 17, 89
X = = = 0, 7156.
25 25
0, 20 + 0, 20 + . . . + 0, 10 4, 15
R = = = 0, 166.
25 25
No Anexo 1, Apêndice ?? há uma relação completa das fórmulas a serem aplicadas e no
Anexo 2, Apêndice ?? há uma relação das constantes necessárias para os cálculos.
Para o Cálculo dos Limites de Controle destes dados utilizou-se as Amplitudes Amostrais
como Medida de Dispersão, dadas pela seguintes fórmulas:
• Para as médias:
– Linha Central: LC = X
• Para as amplitudes:
– Linha Central: LC = R
Exemplo 7.2. Voltando ao Exemplo 7.1, utilizando o Anexo 2 (Apêndice ??), temos
• Para a média:
• Para a amplitude:
Estes gráficos são usados com o objetivo de identificar qualquer evidência de que a média
do processo e sua dispersão não estejam operando em nı́veis estáveis. Neste sentido, os limites
de controle podem ser interpretados da seguinte forma, para o caso em que a variabilidade item
a item e o nı́vel do processo forem estáveis, as médias amostrais e as amplitudes amostrais
terão uma variação aleatória, que pode ser estimada pelas informações contida nos valores
observados de X e R, em decorrência de causas comuns de variabilidade e não decorrentes de
causas especiais, as quais envolvam somente alguns grupos de observações.
Na situação em que somente causas comuns estejam presentes, a chance de um subgrupo
ter uma amplitude amostral R e (ou) uma média amostral X fora de seus respectivos limites
de controle, pode ser estabelecida com precisão utilizando-se regras estatı́stica. Usualmente se
escolhem os limites para que, num processo sob controle, a chance de uma amplitude amostral
ter um valor fora dos limites de controle seja menor do que 1% e a chance disso acontecer com
a média amostral seja menor do que 0, 27%. Estas percentagens correspondem (aproximada-
mente) a uma escolha de limites a uma distância de 3σ da linha média.
Conseqüentemente, se um ou mais pontos estão fora dos limites de controle, seja no gráfico
X ou R, ou outro padrão de não aleatoriedade indica sinal de alerta de que o processo não
está sob controle estatı́stico. Esta suspeita baseia-se no fato de que, para um processo sob
controle, esses padrões de não aleatoriedade, como por exemplo pontos fora dos limites, é um
evento muito raro, mais precisamente, tem uma probabilidade muito pequena de acontecer. A
determinação dos limites de controle envolve, portanto, a determinação da probabilidade de
um padrão de não aleatoriedade, como por exemplo, um ponto cair fora dos limites de controle
estando o processo sob controle estatı́stico.
A escolha de 3σ para determinar a distância dos limites de controle à linha média não é a
única, mas é utilizada com mais frequência. Poderia ser escolhido, por exemplo, construir os
limites a uma distância de 2, 5σ ou de 4σ, caso fosse possı́vel justificar. Quanto mais próximos
estejam os limites da linha central mais freqüentemente um processo “sob controle” gerará ob-
servações que determinem pontos fora dos limites, representando nestes casos “falsos alarmes”.
Por outro lado, se os limites de controle se encontrarem mais afastados da linha média, por
exemplo, a 3, 5σ ou 4σ de distância, menor será a probabilidade de detecção de causas especiais,
desde que a freqüência de pontos fora destes limites seja menor.
Um dos objetivos da aplicação dos gráficos de controle é testar se um processo, não co-
nhecido, encontra-se sob controle estatı́stico e caso o processo seja diagnosticado “fora de con-
7. Gráficos de Controle por Variáveis 155
trole”, orientar as ações para levar o processo ao estado de controle. Para atingir tais objetivos
procede-se da seguinte maneira:
1. Dispostos todos os pontos correspondentes às médias amostrais e às amplitudes amostrais,
nos respectivos gráficos e não existindo nenhum padrão de não aleatoriedade, o processo
é considerado “sob controle”.
2. Se algum ponto fora dos limites de controle ou qualquer outro padrão de não aleatoriedade
é verificado, então considera-se que causas especiais de variação estão presentes. Estas
causas deverão ser anlaisadas e corrigidas. Depois de corrigidas as causas que determinam
o padrão de não aleatoriedade, novos limites e novas linhas centrais são calculadas, para
isso, deve-se retirar os elementos responsáveis pelo pradão de s elementos da amostra que
determinam o padrão de não aleatoriedade. Este processo deve ser repetido interativa-
mente até que nenhum padrão de não aleatoriedade seja encontrado. Neste momento,
consideramos que o processo atingiu o estado de controle é possı́vel aplicar os gráficos
como instrumento para monitorar o processo e realizar melhorias contı́nuas.
• O limite de controle ou o ponto no gráfico pode ter sido calculado errado ou plotado de
maneira duvidosa;
Para cartas de controle que lidam com propagação, um ponto abaixo do limite de controle
inferior, costuma significar um dos pontos a seguir:
• O sistema de medição foi alterado, existindo uma possibilidade de que os dados foram
alterados.
Um ponto além dos limites de controle é geralmente um sinal de que o processo mudou
naquele ponto ou ainda, faz parte de uma tendência.
Quando a amplitude está sob controle estatı́stico, o processo se espalha e as variações dentro
dos subgrupos são consideradas estáveis. As médias podem ser analisadas para verificar se o
processo está mudando ao longo do tempo. Os limites para os gráficos de X̄ são baseados no
montante da variação das amplitudes, desta maneira, se as médias estão sob controle estatı́stico,
suas variações estão relacionadas as variações totais vistas nas cartas de amplitude (um caso
comum da variação do sistema). Se as médias estão fora de controle algumas causas especiais
das variações estão fazendo o processo instável localmente.
Existem muitos critérios para identificar causas especiais. Os mais usados serão discutidos a
seguir. A decisão de qual critério usar depende do processo que está sendo estudado/controlado.
Nota 1: Com exceção feita ao primeiro critério, os números associados com os critérios
não estabelecem uma ordem de uso. A determinação de qual critério usar depende das carac-
terı́sticas do processo e das causas especiais e prioridades com o processo.
Nota 2: Deve-se ter cuidado ao se aplicar muitos critérios, exceto naqueles em que fez
sentido o uso de determinado critério.
Devemos lembrar que nem todas as considerações citadas, para interpretação de controle
podem ser aplicadas no “chão de fábrica”. Muitas destas análises detalhadas podem ser feitas
com cuidado e não em tempo real. Isto implica na necessidade para os eventos do processo
serem anotados, para fazermos estas análises depois de cada evento.
Outra consideração a ser feita diz respeito ao treinamento dos operadores. A aplicação de
um novo critério, que deve ser usado no “chão de fábrica”, nunca deve ser implementado antes
de que os operadores estejam propriamente treinados. Com tempo e experiência o operador irá
reconhecer estes padrões em tempo real.
Portanto, concluiremos que um processo está fora de controle se um ou mais dos critérios
listados abaixo forem encontrados nos gráficos de controle. Os critérios são:
7. Gráficos de Controle por Variáveis 157
• 2 de 3 pontos consecutivos maior que 2 desvios padrão a partir da linha central (mesmo
lado);
• 4 de 5 pontos consecutivos maior que 1 desvio padrão a partir da linha central (mesmo
lado);
• 8 pontos consecutivos maior que 1 desvio padrão a partir da linha central (qualquer lado);
Figura 7.2: Exemplo de 1 ponto mais do que 3 desvios padrão da linha central.
Figura 7.5: Exemplo de 2 de 3 pontos consecutivos, do mesmo lado da LC, maiores que 2
desvios padrão.
ser um alarme falso ou um sinal de que o processos está fora de controle, após um desvio médio
do valor esperado. Para verificar este ponto fora de controle é preciso que o tempo necessário
seja considerado. Se o processo está sob controle estatı́stico, este tempo esperado deve ser
pequeno para que o ponto fora de controle seja observado rapidamente. Desta forma, o cálculo
de Average Run Length para um processo sob controle é dado por
1
ARL = .
P rob (Erro T ipo I)
Um ARL de 400 significa que existiram em média, cerca de 400 amostras ou subgrupos
tomados antes da ocorrencia de um ponto fora de controle.
A tabela a seguir apresenta valores de ARL aproximados para os padrões das cartas de
controle de Shewhart X, dentro dos limites de ± 3σX que definem os sinais de fora de controle.
Verifica-se na Tabela 7.2, por exemplo, que existiram aproximadamente 353 amostras antes
da ocorrência de um ponto fora de controle, com variação de 0, 1σ da média. Da mesma forma
que existiram aproximadamente 2 amostras ou subgrupos, antes da ocorrência de um ponto
fora de controle, com variação de 4σ da média.
Além disso, verifica-se na Tabela 7.2, que a cada 370 amostras não ocorrem variações. Este
comportamento mostra que um falso alarme pode ser indicado por um processo que permanece
sob controle estatı́stico para este número de amostras.
7. Gráficos de Controle por Variáveis 160
Verifica-se na Tabela 7.3 que a adição de um critério de fora de controle reduz significativa-
mente os valores dos ARL’s para pequenas mudanças na média, o que permite reduzir o risco
do erro de Tipo II. Neste caso, verifica-se que a cada 60 amostras aproximadamente, o processo
não muda, o que aumenta o risco do erro do Tipo I ou alarme falso.
O equilı́brio entre esperar um longo ARL quando o processo está sob controle contra um
ARL curto quando existe uma mudança no processo possibilita a utilização de outros tipos de
cartas de controle.
7. Gráficos de Controle por Variáveis 161
7.4 Gráficos X e S
A principal diferença na aplicação do gráfico X e S é no cálculo da estimativa de σ. Neste
caso, esta estimativa é obtida pelo cálculo do desvio padrão amostral. Para isso, é preciso que
o tamanho das amostras ou subgrupos sejam grandes, > 10 ou 12. Além disso, o tamanho das
amostras e subgrupos pode ser variável.
Do ponto de vista prático, a aplicação deste gráfico pode ser inviável para dados que não
são coletados de forma eletrônica, pois, o operador deve calcular os desvios padrão para cada
ponto.
O Exemplo 7.4 mostra uma de suas aplicações.
4. Cálculo da média das médias amostrais e da média dos desvios padrão amostrais, os quais
são indicados, respectivamente, por X e S .
m
Soma das Médias Amostrais 1 X
X = = Xi
Número de Amostras m i=1
m
Soma dos Desvios Padrão Amostrais 1 X
S = = Si
Número de Amostras m i=1
• Para as médias:
7. Gráficos de Controle por Variáveis 163
– Linha Central: LC = X
– Linha Central: LC = S
Exemplo 7.4. Voltando ao Exemplo 7.4, utilizando o Anexo (Apêndice ??), obtemos
A3 = 0, 975; B3 = 0, 284; B4 = 1, 716 (para n = 10).
• Para a média:
Para o Cálculo dos Limites de Controle usaremos os Desvios Padrão Amostrais como Medida
de Dispersão, com as seguintes fórmulas
A3 = 0, 975; B3 = 0, 284; B4 = 1, 716 (para n = 10);
X = 10, 2804;
S = 0, 601922
Para as médias:
LC = X = 10, 2804
LC = S = 0, 601922
Nota-se nos gráficos, que todos os pontos estão dispostos dentro dos limites de controle.
Porém, noo gráfico de X verifica-se um perı́odo de variação aleatória seguido de um perı́odo
com pouca variação aleatória, o que indica, por exemplo, que algo relacionado ao operador
pode ter ocorrido neste perı́odo.
3M R
– LSC = X + d2
= X + E2 × M R
– LC = X
3M R
– LIC = X − d2
= X − E2 × M R
– LSC = D4 × M R
– LC = M R
7. Gráficos de Controle por Variáveis 166
– LIC = D3 × M R
onde:
m
1 X
M R = Média das Amplitudes Móveis = M Ri
m i=1
M Ri = |xi − xi−1 |, i = 2, . . . , m
3
E2 =
d2
Exemplo 7.6. Os Gráficos X e M R para os dados da Tabela 7.5 são construı́dos da seguinte
forma:
7. Gráficos de Controle por Variáveis 167
– LC = 33, 75
– LSC = 3, 267 × 0, 40 = 1, 31
7. Gráficos de Controle por Variáveis 168
– LC = 0, 40
– LIC = 0
Nota-se em ambos os gráficos X e M R que existe um ponto fora dos limites de controle
indicando a presença de uma causa especial de veriação. Nota-se também, que este ponto fora
do limite de controle desencadeou uma sequência nos valores médios observados em seguida.
Exemplo 7.7. Neste exemplo é realizado um estudo de CEP usando as cartas de controle X e
M R, para dados referentes a gramatura de papéis.
7. Gráficos de Controle por Variáveis 169
Resolução:
Inicialmente calculamos os valores para X e M R
X = 90, 45
m
1 X
MR = |xi − xi−1 | = 0, 758333
m i=2
Os dados da tabela d2 ,
7. Gráficos de Controle por Variáveis 170
3
d2 = 1, 128; E2 = = 2, 6595; D3 = 0; D4 = 3, 267 (para n = 2).
d2
3M R 3 × 0, 75833
LSC = X + = X + E2 × M R = 90, 45 + = 92, 46
d2 1, 128
LC = X = 90, 45
3M R 3 × 0, 75833
LIC = X − = X − E2 × M R = 90, 45 − = 88, 433
d2 1, 128
LC = M R = 0, 758333
Verifica-se que no gráfico da Amplitude, todos os valores estão dentro do limite de controle
e apresentam um corportamento aleatório. Porém, no gráfico de valores individuais, a primeira
7. Gráficos de Controle por Variáveis 171
observação encontra-se fora do limite de controle, sendo que, os pontos subsequêntes apresentam
variação alatória.
172
Capı́tulo 8
• Média de p = E(p) = p0
r
p0 (1 − p0 )
• Desvio padrão de p = σp =
n
Na situação em que a fração de defeituosos produzidos por um processo é conhecida, ou
deseja-se aplicar um valor padrão determinado por critérios gerenciais (que indicaremos em
ambos os casos por p0 ) a Linha Central e os Limites de Controle são determinados, quando o
tamanho n das amostras é constante, na forma:
r
0 p0 (1 − p0 )
LSC = p + 3
n
LC = p0
r
0 p0 (1 − p0 )
LIC = p − 3 .
n
s
p0 (1 − p0 )
LSC = p0 + 3
ni
s
p0 (1 − p0 )
LIC = p0 − 3 .
ni
8. Gráficos de Controle por Atributos 174
No caso em que o tamanho das amostras n, for variável, se a variação não for muito grande,
por exemplo da ordem de 20%, uma outra opção é determinar o tamanho amostral médio n, e
definir os limites com este valor.
Assim definindo
(n1 + . . . + nm )
n=
m
onde ni = tamanho da i -ésima amostra e m é o número de amostras.
Os limites de controle serão:
r
0 p0 (1 − p0 )
LSC = p + 3
r n̄
p (1 − p0 )
0
LIC = p0 − 3 .
n̄
Pm
i=1 Di
p = P30
i=m ni
Assim, os limites de controle (de amplitude 3σ) e linha média são definidos por:
r
p(1 − p)
LSC = p + 3
n
LC = p
r
p(1 − p)
LIC = p − 3 .
n
Exemplo 8.1. Uma fábrica de suco de laranja apresentou os seguintes dados quanto ao número
8. Gráficos de Controle por Atributos 175
Pn Pm
i=1 pi i=1 pi 6, 94
p = = = = 0, 2313
m 30 30
Notação: Aqui considera-se ni como sendo o tamanho de cada amostra, e n o número de
8. Gráficos de Controle por Atributos 176
Gráfico p
• Limite Superior:
s
p (1 − p)
LSC = p̄ + 3
ni
r
(0, 2313) (0, 7687)
= 0, 2313 + 3
50
= 0, 41
• Linha Central:
LC = p = 0, 2313
• Limite Inferior:
s
p (1 − p)
LIC = p − 3
ni
r
(0, 2313) (0, 7687)
= 0, 2313 − 3
50
= 0, 052
P28
i=1 pi 6, 02
p = = = 0, 215.
28 28
Assim, os limites de controle são:
• Limite Superior:
s
p (1 − p)
LSC = p + 3
ni
r
(0, 215) (0, 785)
= 0, 215 + 3 = 0, 215 + 0, 174
50
= 0, 389
• Linha Central:
8. Gráficos de Controle por Atributos 178
LC = p = 0, 215
• Limite Inferior:
s
p (1 − p)
LIC = p − 3
ni
r
(0, 215) (0, 785)
= 0, 215 − 3
50
= 0, 041
Nota-se que, apesar da retirada dos pontos fora dos limites de controle e o cálculo dos
limites de controle revisados, ainda existe um ponto fora do limite, indicando a presença de
causa especial de variação. Após a tomada de uma ação para correção desta causa especial,
novos dados foram coletados e um novo gráfico foi gerado. Estes novos dados são mostrados
8. Gráficos de Controle por Atributos 179
na tabela a seguir.
• Linha Central:
LC = p̄ = 0, 1092
• Limite Superior:
8. Gráficos de Controle por Atributos 180
s
p̄ (1 − p̄)
LSC = p̄ + 3
ni
r
(0, 109166667) (0, 890833333)
= 0, 109166667 + 3
24
= 0, 241472657
• Limite Inferior:
s
p̄ (1 − p̄)
LIC = p̄ + 3
ni
r
(0, 109166667) (0, 890833333)
= 0, 109166667 − 3
24
= 0
Verifica-se no gráfico da Figura 8.3,que após a ação sobre a causa especial de variação
8. Gráficos de Controle por Atributos 181
Exemplo 8.2. Temos a seguir dados sobre defeitos de inclusão de areia de moldes de eixo-
comando.
Gráfico p
8. Gráficos de Controle por Atributos 182
Calculamos agora o Limite Superior e o Limite Inferior para a primeira amostra ni = 1536,
o mesmo deve ser feito para todas as outras amostras.
• Limite Superior:
s
p (1 − p)
LSC = p̄ + 3
ni
r
(0, 0188) (0, 9812)
= 0, 0188 + 3
1536
= 0, 029202557
• Linha Central:
P30
Di 748
LC = p = Pi=1
30 = = 0, 0188
i=1 ni 39777
• Limite Inferior:
s
p (1 − p)
LIC = p − 3
ni
r
(0, 0188) (0, 9812)
= 0, 0188 − 3
1536
= 0, 0084
Verifica-se no gráfico da Figura 8.4 a existência de vários pontos fora do limite de controle
indicando que o processo não está sob controle estatı́stico.
A construção dos gráficos np também tem por base a distribuição binomial e este gráfico de
controle só pode ser construı́do quando se tem amostras de tamanhos iguais.
Os Limites de Controle são obtidos diretamente da carta p e estão descritos a seguir
p
LSC = np + 3 np(1 − p)
LC = np
p
LIC = np − 3 np(1 − p).
• Limite Superior:
p
LSC = np + 3 np(1 − p)
p
= 50 ∗ 0, 2313 + 3 (50 ∗ 0, 2313) × (0, 7687)
= 20, 51
• Linha Central:
LC = p = 11, 57
• Limite Inferior:
p
LIC = np − 3 (np(1 − p))
p
= 50 ∗ 0, 2313 − 3 (50 ∗ 0, 2313) × (0, 7687)
= 2, 62
8. Gráficos de Controle por Atributos 185
8.3 Gráficos c
Dependendo do tipo de produto é mais natural considerar o número de defeitos por
unidade amostral e não o número de itens defeituosos. Cada unidade pode consistir de vários
itens, isto é, ela pode ser definida como sendo um subgrupo de itens. O essencial é que nas
diferentes unidades amostrais exista a mesma chance de ocorrerem defeitos.
Alguns exemplos práticos de aplicações deste gráfico são: número de defeitos por página de
um jornal, número de defeitos num aparelho eletrônico número de pontos defeituosos num rolo
de papel, número de parafusos defeituosamente colocados na fuselagem de um avião, número
de bolhas numa superfı́cie pintada, número de pontos defeituosos numa lâmina de aço, entre
outros.
O gráfico c é empregado considerando o número de defeitos por subgrupos, quando todos
estes subgrupos forem do mesmo tamanho, isto é, tiverem o mesmo número de itens.
Duas situações onde o gráfico c é tipicamente aplicável são:
2. Quando defeitos de diferentes tipos e origens podem ser encontrados na unidade amostral,
tais como nos últimos testes de um computador ou depois da montagem de um trator.
Nota: nestes dois últimos exemplos talvez seja mais recomendável aplicar os gráficos com
demérito, que serão desenvolvidos nas próximas seções
Considerações teóricas válidas em muitas situações indicam que a variável “c” é igual ao
“número de defeitos por unidade”, que pode ser representada por uma distribuição que tem
√
média µc = m, e desvio padrão σc = m .
Na prática, o valor de m é determinado pela média dos defeitos da várias amostras dada
por c . Conseqüentemente, os limites de controle são:
√
LSC = c + 3 c
LC = c
√
LIC = c − 3 c
(c1 + c2 + . . . + ck )
onde c = , sendo que c1 , c2 , . . . , ck são o número de defeitos em cada um dos
k
k subgrupos.
516
c̄ = = 19, 85.
26
Desta forma os limites de controle são dados pela seguinte forma,
√ p
LSC = c + 3 c = 19, 85 + 3 19, 85 = 33, 22
LC = c = 19, 85
√ p
LIC = c − 3 c = 19, 85 − 3 19, 85 = 6, 48
Exemplo 8.4. Após avaliar a carta de controle (Figura 8.6), constatou-se que existem dois
pontos fora de controle. Então foi verificado que a máquina estava descalibrada e foi proposto
que fossem removidas do conjunto de dados, as observações 6 e 20, e revisados os limites de
controle.
472
c̄ = = 19, 67
24
√ p
LSC = c + 3 c = 19, 67 + 3 19, 67 = 32, 97
LC = c = 19, 67
√ p
LSC = c − 3 c = 19, 67 − 3 19, 67 = 6, 37
8. Gráficos de Controle por Atributos 189
Retirando as observações 6 e 20, observa-se que os dados encontram-se dentro dos limites
de controle.
8.4 Gráfico u
Freqüentemente o número de unidades que compõem os subgrupos é variável. Nestes
casos, se estamos interessados em controlar o número de defeitos por unidade, o gráfico a ser
utilizado será o Gráfico “u”. Como ilustração, consideremos o caso da produção de tecido,
onde a quantidade de metros contida num rolo pode ser variável. O valor da variável u num
subgrupo que contenha ni unidades amostrais onde sejam encontrados c defeitos, é dado por:
c
u= .
ni
Mais uma vez salientamos que n pode variar de subgrupo para subgrupo e poderá ser não
inteiro.
8. Gráficos de Controle por Atributos 190
(c1 + c2 + . . . + ck )
onde ū = , sendo que : c1 , c2 , . . . , ck representam os números de defeitos
(n1 + n2 + . . . + nk )
e; n1 , n2 , . . . , nk representam os tamanhos dos k subgrupos.
Apresentaremos no próximo exemplo o procedimento de como calcular e interpretar um
caso onde as amostras têm tamanho variável.
Exemplo 8.5. Em uma empresa têxtil, os tecidos são tingidos são inspecionadas para a
ocorrência de defeitos por 50 metros quadrados. Os dados dos 10 lotes de inspeção estão na
Tabela 8.6. U-saremos estes dados para ajustar uma carta de controle para as não-conformidades
por unidades.
1 500 14 10 1,400
2 400 12 8 1,500
3 650 20 13 1,538
4 500 11 10 1,100
5 475 7 9,5 0,737
6 500 10 10 1,000
7 600 21 12 1,750
8 525 16 10,5 1,524
9 600 19 12 1,583
10 625 23 12,5 1,840
153 107,5 1,42
153
ū = = 1, 42.
107, 5
Note que ū equivale a razão entre o total de não-conformidades em relação a número total
de inspeções por unidade. Os limites de controle serão calculados individualmente em relação
ao tamanho da amostra.
8. Gráficos de Controle por Atributos 191
r
u
LSC = u + 3
ni
LC = u
r
u
LIC = u − 3
ni
Desta forma, temos na Figura 8.8 a carta de controle para o Exemplo 8.4
193
Capı́tulo 9
v
u n
uX
u
u (xi − x)2
t i=1
s= ,
n−1
(b) Cpk : este ı́ndice avalia se o processo está Centrado. Este corresponde ao menor valor
entre, o Limite Superior de Especificação (LSE) menos a Média e a Média menos o
Limite Inferior de Especificação (LIE), divido pela Capacidade do Processo;
(d) Ppk : este ı́ndice avalia se o processo está centrado. Este corresponde ao menor
valor entre, o limite superior de especificação (LSE) menos a média e a média menos
o limite inferior de especificação (LIE), dividido pela performance do processo;
Devemos ter muito cuidado com a metodologia utilizada para calcular e apresentar os Índices
de Capacidade e Performance do processo, pois há diferenças de denominações e enfoques entre
autores na bibliografia.
Para ajustarmos o desvio padrão em relação ao vı́cio, devido ao fato de tomarmos peque-
nas amostras ao longo do tempo (se for o caso), tomamos
v
u n
uX
u
u (xi − x)2
t i=1
s n−1
σ
bajust = = ,
c4 (n) c4 (n)
R
σ
b= ,
d2
s
σ
b= ,
c4
onde s representa a média dos desvios padrão amostral dos subgrupos e c4 representa
uma constante tabelada em Apêndice ??.
Outro método utilizado para estimarmos a variabilidade a Curto Prazo é definida por
sp
σ
b= ,
c4 (d)
e !
m
X
d= ni −m+1
i=1
e
ni
X xij
xi = .
j=1
ni
Capı́tulo 10
LSE-LIE
Cp = .
6σ
Um processo centrado, isto é, µ = (1/2)(LIE + LSE) com uma distribuição (estável) normal
e com um Cp = 1, produzirá 0,27 % dos itens fora de especificação. Também, para um processo
centrado e capaz ( Cp = 1), os limites de controle de X e de especificação estão relacionados
da seguinte forma :
• LSC = LSE
√
n
• LIC = LIE
√
n
onde n é o tamanho dos subgrupos racionais no gráfico de controle. Temos assim que a menos
√
da constante n, os dois limites coincidem para processos com Cp = 1.
O ı́ndice Cp é uma medida da “Capacidade do Processo”desde que a dispersão é relacionada
com os limites de especificação, porém a locação do processo não é considerada nem na definição
nem no cálculo do Cp . Dado que o denominador (6σ) na definição do Cp é um parâmetro,
podemos considerar que o valor Cp é também um parâmetro do processo. Assim,
b p = LSE-LIE
C
6b
σ
atuarem, o Cp real do processo seja maior ou igual a 1,00. Baseados no mesmo tipo de
argumento, outros autores sugerem um Cp = 1,5 para a fase de qualificação em equipamentos
novos.
Em resumo, análises de Curto Prazo para a qualificação do processo ou de equipamentos
são efetuadas, em geral, sob condições que reduzem a variabilidade, fazendo destes estudos
ferramentas importantes na detecção de grandes causas geradoras de problemas e sua função.
Um ı́ndice utilizado por outros autores e empresas, equivalente ao Cp , é a “Razão de
Capacidade” Rc , definida como o recı́proco do Cp . Em porcentagem o Rc é dado por:
• Rc = % da especificação usada
6σ
• Rc = LSE-LIE × 100%
• Rc = C1 × 100%
p
LSE − µ LSE − µ
CP S = = .
3σ Variabilidade Inerente
2
µ − LIE
CP I =
3σ
CP I + CP S
Cp = .
2
Observemos que CP I e CP S referem-se a µ, a média do processo. Uma generalização para
o caso de especificações bilaterais será o ı́ndice:
Cpk = Cp (1 − k),
|m − µ|
k= ,
(LSE-LIE)/2
LSE−LIE
com m = 2
é o ponto central da especificação.
Observemos os ı́ndices de capacidade na figura seguinte
10. Índices de Capacidade e Performance do Processo 203
Exemplo 10.1. Considerando um processo sob controle, com as seguintes especificações: LSE =
10, 9 , VN = 10,7 e LIE = 10, 5. Supondo que a média amostral do processo é dada por
x̄ = 10, 662, e a amplitude média é R = 0, 2, para um amostra com subgrupos de 3 elementos.
R 0, 2
σ
b= = = 0, 118.
d2 1, 693
com
d2 = 1, 693.
Para avaliar a pior situação, ou seja, aquela em que o processo gera a maior porcentagem
de defeitos calcula-se o Cpk , da seguinte forma,
10. Índices de Capacidade e Performance do Processo 204
O gráfico da Figura 10.2 e os resultados do teste de Anderson Darling indicam que os dados
têm distribuição normal, o que permite calcular a capacidade do processo. Para isso, estima-se
o desvio padrão da seguinte forma:
R 0, 9474
σ
b= = = 0, 8399.
d2 1, 128
com o valor de d2 = 1, 128 obtido no apêndice B
A situação em que o processo gera maior porcentagem de defeitos é verificada pelo valor de
Cpk , que é obtido da seguinte forma:
LSE − µ 10, 2 − 8, 73
CP S = = = 0, 5834
3σ 3 × 0, 8399
10. Índices de Capacidade e Performance do Processo 206
µ − LIE 8, 73 − 6, 7
CP I = = = 0, 8056
3σ 3 × 0, 8399
Então, o
Cpk = min(CP I, CP S) = min(0, 5834; 0, 8056) = 0, 5834.
Verifica-se que o processo está sob controle, porém incapaz, o que indica a necessidade de
ações gerenciais.
LSE-LIE
Pp = .
6σ
LSE − µ LSE − µ
PPS = = .
3σ Variabilidade Total
2
Analogamente, podemos definir
µ − LIE
PPI = ,
3σ
para processos com tolerância unilateral inferior.
A relação entre Pp e a dupla (P P I, P P S) é dada por:
PPI + PPS
Pp = .
2
Observemos que P P I e P P S referem-se a µ, a média do processo. Uma generalização para
o caso de especificações bilaterais será o ı́ndice
• Para os gráficos X̄ e R ou s são utilizados como estimativas para a média e como estimativa
para o desvio padrão amostral,
v
u n
uX
u
u (xi − x)2
t i=1
s n−1
σ
bajust = = .
c4 (n) c4 (n)
10. Índices de Capacidade e Performance do Processo 208
– Cp ou Pp : não se aplicam;
– Cp ou Pp : não se aplicam;
A pior situação (aquela em que o processo gera a maior porcentagem de defeitos) é avaliada
pelo Ppk , ou seja
Do apêndice, retiramos
d2 = 1, 128.
R 0, 0087
σ
b= = = 0, 007712.
d2 1, 128
Para avaliar a pior situação, ou seja, aquele em que o processo gera a maior porcentagem
de defeitos calcula-se o valor de Ppk , com desvio padrão s = 0,01602,
A Figura 10.4 os mostra os resultados gráficos referentes aos dados do Exemplo 12.6.
10. Índices de Capacidade e Performance do Processo 212
213
Capı́tulo 11
Capacidade do Processo e a
Distribuição Normal Padronizada (Z)
• Especificações Unilaterais:
LSE − µ LIE − µ
Z LSE = ou Z LIE = .
σ σ
• Especificações Bilaterais:
Zmin
Cpk = .
3
Desta forma, concluı́mos que Zmin = 3 implica em Cpk = 1, se Zmin = 4 temos Cpk = 1,33,
se Zmin = 5 temos Cpk = 1,67 e se Zmin = 6 temos Cpk = 2.
11. Capacidade do Processo e a Distribuição Normal Padronizada (Z) 214
A seguir, vamos ilustrar os métodos de cálculos do Desvio Padrão para dados seguindo a
distribuição normal.
11.2 Aplicações
Exemplo 11.1. O conjunto de dados abaixo foram retirados de um processo sob controle es-
tatı́stico, com as seguintes especificações 37 ± 13. (LIE = 24; µ = 37; LSE = 50).
v
u n
uX
u
u (xi − x)2
t i=1
s n−1 3, 52874
σ
bajust = = = = 3, 53776.
c4 (n) c4 (n) 0, 9975
Com este resultado, obtemos os seguintes ı́ndices de performance
LSE − LIE 50 − 24
Pp = = = 1, 22
6b
σ 6 ∗ (3, 53776)
11. Capacidade do Processo e a Distribuição Normal Padronizada (Z) 216
LSE − µ
b µ b − LIE
Ppk = min ;
3b
σ 3b
σ
50 − 33, 55 33, 55 − 24
Ppk = min ;
3 ∗ (3, 53776) 3 ∗ (3, 53776)
Calculando o valor de Z
LSE − µ
b 50 − 33, 55
Z LSE = = = 4, 65
σ
b 3, 53776
LIE − µ 24 − 33, 55
= −2, 699448.
b
Z LIE = =
σ
b 3, 53776
O PPMLSE é a parte de PPM relativo ao LSE, então para acharmos este valor calculamos:
isto é:
no qual Φ(x) = P [N (0, 1) ≤ x]. O PPMLIE é a parte de PPM relativo ao LIE, então
para acharmos este valor calculamos
(usamos negativo, pois deseja-se verificar os itens defeituosos menores que o LIE). Por-
tanto,
11. Capacidade do Processo e a Distribuição Normal Padronizada (Z) 217
R̄ 6, 2
σ
b= = = 2, 66552
d2 2, 326
LSE − LIE 50 − 24
Cp = = = 1, 63
6b
σ 6 ∗ (2, 66552)
LSE − µ
b µ b − LIE
Cpk = min ;
3b
σ 3b
σ
50 − 33, 55 33, 55 − 24
Cpk = min ;
3 ∗ (2, 66552) 3 ∗ (2, 66552)
Calculando o valor de Z
LSE − µ
b 50 − 33, 55
Z LSE = = = 6, 17
σ
b 2, 66552
LIE − µ 24 − 33, 55
= −3, 58.
b
Z LIE = =
σ
b 2, 66552
v
uX m X ni
(xij − xi )2 r
u
u
702, 4
u
u i=1 j=1
sp = u m = = 2, 963106,
u X 20 ∗ 4
t (n − 1)
i
i=1
d = m × ni − m + 1 = 20 ∗ 5 − 20 + 1 = 81
sp 2, 963106
σ
b= = = 2, 97238.
c4 (81) 0, 9969
LSE − LIE 50 − 24
Cp = = = 1, 46
6b
σ 6 ∗ (2, 97238)
LSE − µ
b µ b − LIE
Cpk = min ;
3b
σ 3b
σ
50 − 33, 55 33, 55 − 24
Cpk = min ;
3 ∗ (2, 97238) 3 ∗ (2, 97238)
Para Z, obtemos
LSE − µ
b 50 − 33, 55
Z LSE = = = 5, 53.
σ
b 2, 97238
LIE − µ 24 − 33, 55
= −3, 21.
b
Z LIE = =
σ
b 2, 97238
Exemplo 11.2. Neste exemplo, apresentamos os dados referentes ao controle de torque apli-
cado por uma parafusadeira na montagem de chacis de ônibus. A cada uma hora, foram ins-
pecionadas cinco peças com um sensor de torque.
11. Capacidade do Processo e a Distribuição Normal Padronizada (Z) 220
Temos que
LIE = 480 e LSE = 720
R 51, 04
σ= = = 21, 9433
d2 2, 326
11. Capacidade do Processo e a Distribuição Normal Padronizada (Z) 221
720 − 609, 816 609, 816 − 480
Cpk = min ;
65, 8299 65, 8299
A pior situação, que é verificada quando o processo gera a maior porcentagem de defeitos é
avaliada pelo Ppk , com desvio padrão s = 26,6047,
Índices Observados
PPM > LSE 16000
PPM < LIE 0
PPM Total 16000
Exemplo 11.3. A Tabela 11.4 apresenta dados de grau de brancura de um material enviado
para análise. Neste exemplo, mostra-se os cáclulos para avaliar a capacidade e performance do
processo.
Neste caso,
LIE = 123, 25 e LSE = 128, 25
Primeiramente deve-se verificar se os dados possuem distribuição normal. Para isso, usa-
se, por exemplo, o teste de Andereson-Darling. A Figura 11.4 mostra os resultados do teste
de nomralidade e o gráfico de probabilidade, na qual verifica-se que os dados seguem uma
distribuição normal.
128, 25 − 128, 7 123, 25 − 128, 7
Ppk = min ;
3 ∗ (1, 572) 3 ∗ (1, 572)
Calculando o valor de Z
Assim,
R̄ 1, 165022
σ
b= = = 1, 032820974,
d2 1, 128
P25
em que R̄ = i=2 |(xi − xi−1 )| = 1, 165022.
Com isso, calcula-se os ı́ndices de Capacidade do Processo:
128, 25 − 128, 70 128, 70 − 123, 25
Cpk = min ;
3 ∗ (1, 033169) 3 ∗ (1, 032820974)
Logo,
231
Capı́tulo 12
Quando os dados não seguem distribuição normal temos diversas alternativas para calcu-
lar os ı́ndices de capacidade/performance do processo. A seguir, apresentamos as alternativas:
• Aplicar uma transformação nos dados, para que estes tenham distribuição normal;
• Calcular os ı́ndices através de outra distribuição de probabilidade que se ajuste aos dados,
em particular, através da distribuição de Weibull;
ln(Xi ), se λ = 0,
Yi =
λ
Xi − 1 , se λ 6= 0,,
λ
12. Análise de Performance do Processo para Dados Não Normais 232
para i = 1, . . . , n.
Após aplicarmos essa transformação aos dados, as especificações e os parâmetros do processo
(média, variabilidade inerente e total) são obtidos para os dados transformados, aplicando a
análise via dados normais. Da mesma forma, os ı́ndices são calculados para os dados transfor-
mados com a distribuição normal.
Para verificarmos se a transformação foi eficiente, basta analisarmos a normalidade dos
dados transformados via histograma, papel de probabilidade normal ou teste de normalidade
de Kolmogorov-Smirnov ou Anderson-Darling.
Exemplo 12.1. Os dados deste exemplo são referentes a um processo em inı́cio de desenvolvi-
mento.Deste processo coletou-se uma amostra com 30 unidades, organizados na Tabela 12.1.
Considerando o Limite Superior de Especificação = 4, pede-se:
O teste de normalidade para os dados da Tabela 12.1 indica que eles não são podem ser
modelados pela distribuição normal.
12. Análise de Performance do Processo para Dados Não Normais 233
Considerando que os dados da Tabela 12.1 não são modelados pela distribuição normal
pode-se fazer uma uma transformação nestes dados. Para isso, calcula-se a média e o desvio
padrão amostral, da seguinte forma:
x̄ = 1, 59
s = 1, 53.
A Tabela 12.2 mostra os dados obtidos pela transformação. Os valores da média e desvio
padrão para os dados transformados são x = 0, 08 e s = 1, 24, respectivamente.
A mesma transformação aplicada aos dados deve ser feita para obter um novo limite superior
para os os dados transformados.
40,3283 − 1
LSE = = 1, 755577.
0, 3283
• Cálculo do Pp
LSE − LIE
Pp =
q3 − q1
em que
• Cálculo de P P S e P P I
LSE − q2 q2 − LIE
PPS = ; PPI =
WS ∗ s WI ∗ s
em que
q2 − q1 q3 − q2
WI = ; WS =
s s
Assim:
LSE − q2 LSE − q2 LSE − q2
PPS = = q3 −q2 =
WS ∗ s s
s q 3 − q2
q2 − LIE q2 − LIE q2 − LIE
PPI = = q2 −q1 =
WI ∗ s s
s q2 − q1
em que
• Cálculo de Ppk
Ppk = min(P P S; P P I).
O número esperado de partes por milhão que tem observações menores que o limite inferior
de especificação é dado por:
em que
O número esperado de partes por milhão que tem observações maiores que o limite supe-
rior de especificação é dado por:
em que
• Cálculo de P P MT otal
δ δ−1
f (t) = δ
t exp[−(t/α)δ ], t ≥ 0, (12.1)
α
em que
α : parâmetro de escala;
δ : parâmetro de forma.
A função densidade de probabilidade pode ser observada na figura a seguir
12. Análise de Performance do Processo para Dados Não Normais 239
p
s= V ar[T ].
O gráfico do Papel de Probabilidade da Figura 12.5 indica que os dados podem ser modelados
pela distribuição de Weibull, pois os pontos estão dispostos próximos a reta.
α̂ = 0, 51143 e δ̂ = 1, 84754.
Desta forma,
1
E[T ] = 0, 51143 ∗ Γ 1 +
1, 84754
= 0, 51143 ∗ 0, 88826
= 0, 4543.
= 0, 06506.
p
s= 0, 06506 = 0, 25506
Aa Figura 12.6 apresenta o gráfico de performance para este exemplo. Em seguida, encontram-
se os ı́ndices de performance para LSE = 1, 1 e LIE = 0, 045.
12. Análise de Performance do Processo para Dados Não Normais 242
• Cálculo do Pp
LSE − LIE
Pp =
q3 − q1
em que LSE = Limite Superior de Especificação
Assim:
1, 1 − 0, 045
Pp = = 0, 75.
1, 421 − 0, 0143
• Cálculo de P P S e P P I
LSE − q2 q2 − LIE
PPS = PPI =
WS ∗ s WI ∗ s
em que q2 = Quantil da Distribuição Weibull com 50% (equivalente ao valor correspon-
dente à mediana dos dados).
12. Análise de Performance do Processo para Dados Não Normais 243
q2 − q1 q 3 − q2
WI = WS =
s s
Assim:
• Cálculo de Ppk
P P MLIE < LIE = 1.000.000 ∗ qLIE P P MLSE > LSE = 1.000.000 ∗ (1 − qLSE )
em que
Assim:
P P MLIE < LIE = 1.000.000 ∗ 0, 01115141 = 11151, 41
P P MObs < LIE = Proporção observada de dados menores que o LIE × 1.000.000
Qtde. de Obs. < LIE 0
= ∗ 1.000.000 = ∗ 1.000.000 = 0.
n 50
12. Análise de Performance do Processo para Dados Não Normais 244
P P MObs > LSE = Proporção observada de dados maiores que o LSE × 1.000.000
Qtde. de Obs. > LSE 1
= ∗ 1.000.000 = ∗ 1.000.000 = 20.000.
n 50
Exemplo 12.3. A Tabela 12.5 apresenta dados de gramatura em g/m2 de uma folha de papel.
As especificações para estes dados são LSE = 92, 88, Alvo = 90, 21 e LIE = 87, 54.
O gráfico da Figura 12.7 indica que a distribuição Weibull é a que melhor se ajusta aos
dados de gramatura de papel.
Desta forma,
1 1
E(T ) = α ∗ Γ 1 + = 90, 838 ∗ Γ 1 + = 90, 468,
δ 140, 329
p
s= 0, 6766628 = 0, 8225951.
O gráfico da Figura 12.8 ilustra a análise da performance do processo dos dados de gramatura
de papel.
12. Análise de Performance do Processo para Dados Não Normais 246
• Cálculo de Pp
• Cálculo de P P S e P P I
• Cálculo de Ppk
Qtde. de Obs. < LIE 0
P P MObs < LIE = ∗ 1.000.000 = ∗ 1.000.000 = 0.
n 25
Qtde. de Obs. > LSE 0
P P MObs > LSE = ∗ 1.000.000 = ∗ 1.000.000 = 0
n 25
P P MObs T otal = [P P MObs < LIE] + [P P MObs > LSE] = 0.
A análise descrita acima busca uma distribuição de probabilidade que melhor se ajuste
aos dados. Quando estes procedimentos não são realizados e os dados são assumidos com
distribuição normal, os resultados obtidos para os ı́ndices são diferentes. A Tabela 12.7 faz uma
comparação ilustrativa dos ı́ndices, caso fosse asssumida distribuição normal para os dados de
gramatura de papel, com a suposição de ditribuição de Weibull.
1 −t/α
f (t) = e para todo t > 0,
α
12. Análise de Performance do Processo para Dados Não Normais 248
sendo α > 0 denominado o parâmetro da distribuição. Assim, temos que a função de dis-
tribuição acumulada é dada por
Z t
1 −x/α
F (t) = P [T ≤ t] = e dx = 1 − e−t/α para todo t > 0.
0 α
com
E[T ] = α e V ar[T ] = α2 .
Exemplo 12.4. Os dados da Tabela 12.8 são usados exemplificar uma análise de performance
para dados com distribuição exponencial.
12. Análise de Performance do Processo para Dados Não Normais 249
Verifica-se pela Figura 12.10 que a distribuição exponencial se ajusta aos dados da Tabela
12.8.
Os resultados do teste de Anderson-Darling verificados na Tabela 12.9 indica que estes dados
12. Análise de Performance do Processo para Dados Não Normais 250
podem ser modelados tanto pela distribuição exponencial, Weibull e log-normal. Porém, este
exemplo ilustra o cálculo dos ı́ndices de performance para dados com distribuição exponencial,
vamos assumir que os dados são modelados por ela.
1
E[T ] = = 20, 508
x̂
1
E[T ] = = 20, 508.
0, 04876
p
s= 420, 603 = 20, 508.
O gráfico da Figura 12.11 ilustra a análise da performance do processo para dados com
distribuição exponencial.
12. Análise de Performance do Processo para Dados Não Normais 251
Os ı́ndices de performance do processo para dados com distribuição exponencial são calcu-
lados da seguinte forma:
• Cálculo de Pp
LSE − LIE
Pp =
q3 − q1
em que LIE e LSE já foram definidos anteriormente, e
Assim:
0, 3 − 0, 0015
Pp = = 0, 9266.
0, 32218 − 0, 0000658
• Cálculo de P P S e P P I
LSE − q2 q2 − LIE
PPS = PPI =
WS ∗ s WI ∗ s
em que q2 = Quantil da distribuição exponencial com 50% (equivalente ao valor cor-
respondente à mediana dos dados).
12. Análise de Performance do Processo para Dados Não Normais 252
q2 − q1 q 3 − q2
WI = WS =
s s
Assim:
• Cálculo de Ppk
P P MLIE < LIE = 1.000.000 ∗ qLIE P P MLSE > LSE = 1.000.000 ∗ (1 − qLSE )
Assim:
P P MLIE < LIE = 1.000.000 ∗ 0, 03029456 = 30294, 56
e
P P MT otal = 30294, 56 + 2127, 976 = 32422, 536.
P P MObs < LIE = Proporção observada de dados menores que o LIE × 1.000.000
Qtde. de Obs. < LIE 0
= ∗ 1.000.000 = ∗ 1.000.000 = 0.
n 50
12. Análise de Performance do Processo para Dados Não Normais 253
P P MObs > LSE = Proporção observada de dados maiores que o LSE × 1.000.000
Qtde. de Obs. > LSE 0
= ∗ 1.000.000 = ∗ 1.000.000 = 0.
n 50
• µ é a média do logaritmo;
• σ é o desvio-padrão do logaritmo.
Existe uma relação entre a distribuição log-normal e normal. Como o nome sugere, o
logaritmo de uma variável com distribuição log-normal com parâmetros µ e σ tem distribuição
normal com média µ e desvio-padrão σ. Esta relação significa que dados provenientes de uma
distribuição log-normal podem ser analisados segundo uma distribuição normal, caso sejam
usados o logaritmo dos dados ao invés dos valores originais.
Exemplo 12.5. Os dados da Tabela 12.10 são usados exemplificar uma análise de performance
para dados com distribuição log-normal.
12. Análise de Performance do Processo para Dados Não Normais 255
A Figura 12.13 indica que a distribuição log-nomal é a distribuição que melhor modela os
dados da Tabela 12.10. Os resultados do teste de Anderson-Darling são mostrados na Tabela
12.11.
µ
b = Média(log(dados)) = 4, 8975
e
p
σ
b= var(log(dados)) = 1, 4032.
Assim
2
σ
E[T ] = exp µ +
2
1, 9692
= exp 4, 8975 + = 358, 5861.
2
= 128584 ∗ 6, 165012
= 792721, 9.
p
s= 792721, 9 = 890, 927.
Os valores dos ı́ndices de performance para os dados da Tabela 12.10 e considerando LSE =
3000 e LIE = 30 são obtidos da seguinte forma,
• Cálculo de Pp
LSE − LIE
Pp =
q3 − q1
Assim:
3000 − 30
Pp = = 0, 3292.
9021, 697 − 1, 9892
• Cálculo de P P S e P P I
LSE − q2 q2 − LIE
PPS = PPI =
WS ∗ s WI ∗ s
em que q2 = Quantil da distribuição log-normal com 50% (equivalente ao valor cor-
respondente à mediana dos dados).
12. Análise de Performance do Processo para Dados Não Normais 258
q2 − q1 q 3 − q2
WI = WS =
s s
Assim:
• Cálculo de Ppk
P P MLIE < LIE = 1.000.000 ∗ qLIE P P MLSE > LSE = 1.000.000 ∗ (1 − qLSE )
Assim:
P P MObs < LIE = Proporção observada de dados menores que o LIE × 1.000.000
Qtde. de Obs. < LIE 7
= ∗ 1.000.000 = ∗ 1.000.000 = 140.000.
n 50
P P MObs > LSE = Proporção observada de dados maiores que o LSE × 1.000.000
Qtde. de Obs. > LSE 1
= ∗ 1.000.000 = ∗ 1.000.000 = 20.000.
n 50
P P MObs T otal = [P P MObs < LIE] + [P P MObs > LSE] = 140.000 + 20.000 = 160.000.
Pearson (1895) propôs uma famı́lia de distribuições cuja função densidade de probabili-
dade f satisfaz a seguinte equação diferencial
1 ∂f a+x
=
f ∂x c0 + c1 x + c2 x 2
onde
• c0 , c1 , c2 e a são parâmetros;
• f (x) ≥ 0;
R∞
• −∞
f (x)dx = 1.
Se c1 = c2 = 0, temos
1 ∂f (x) x+a
= .
f ∂x c
Então,
(x + a)2
f (x) = k ∗ exp − ,
2c0
12. Análise de Performance do Processo para Dados Não Normais 260
onde
√
• k= 2πc0 ; c0 > 0;
• µ : média;
• σ : desvio padrão;
• β1 : coeficiente de assimetria 3
x−µ
β1 = E ;
σ
• β2 : coeficiente de curtosis 4
x−µ
β2 = E − 3.
σ
σβ1 (β2 + 6)
a = µ+ ;
12β12 − 10β2 − 12
3β12 − 2β2
c2 = .
12β12 + 10β2 − 12
Quando estamos trabalhando com dados não paramétricos, não é possı́vel calcular os ı́ndices
de performance usando uma distribuição conhecida. John Clements, em 1989, propôs uma nova
forma de calcular estes ı́ndices.
12. Análise de Performance do Processo para Dados Não Normais 261
Neste método temos que calcular a Média (X), Desvio Padrão (s), Coeficiente de As-
simetria (Sk) e Coeficiente de Curtose (Ku). Os cálculos dos Pp , Ppk , P P I e P P S, são
praticamente iguais:
[(xi − x)/s]3
P
Sk = ,
n
[(xi − x)/s]4
P
Ku = −3
n
LSE − LIE
Pp =
q3 − q1
q2 − LIE
PPI =
q2 − q 1
LSE − q2
PPS =
q 3 − q2
Ppk = min(P P S, P P I)
em que
q1 = X − s × q10
q2 = X + s × q20
q3 = X + s × q30
q10 = Se o valor do Coeficiente de Assimetria for positivo use a Tabela ?? do Apêndice ??,
se o valor do Coeficiente de Assimetria for negativo use a Tabela ?? do Apêndice ??.
q20 = Se o valor do Coeficiente de Assimetria for positivo inverter o sinal do valor da Tabela
?? do Apêndice ??, se o valor do Coeficiente de Assimetria for negativo use a Tabela ?? do
Apêndice ??.
q30 = Se o valor do Coeficiente de Assimetria for positivo use a Tabela ?? do Apêndice ??,
se o valor do Coeficiente de Assimetria for negativo use a Tabela ?? do Apêndice ??.
12. Análise de Performance do Processo para Dados Não Normais 262
Calculando a média X
2, 40 + 2, 06 + . . . + 2, 33 + 2, 12 439, 74
X = = = 2, 20.
200 200
12. Análise de Performance do Processo para Dados Não Normais 263
3 3
(2,40−2,20) (2,12−2,20)
0,178
+ ··· + 0,178
Sk =
200
78, 203
= = 0, 391.
200
4 4
(2,40−2,20) (2,12−2,20)
0,178
+ ··· + 0,178
Ku = −3
200
501, 2369
= − 3 = −0, 494.
200
• q10 = 1,930, que corresponde ao percentil 0,135 da curva de Pearson, ver Tabela ?? do
apêndice ??;
• q20 = -0,091, que corresponde ao percentil 0,50 da curva de Pearson, ver Tabela ?? do
apêndice ??;
• q30 = 2,969, que corresponde ao percentil 99,865 da curva de Pearson, ver Tabela ?? do
apêndice ??.
2, 70 − 1, 7
Pp = = 1, 14.
2, 728720 − 1, 854160
2, 182455 − 1, 70
PPI = = 1, 469
2, 182 − 1, 854
2, 70 − 2, 182
PPS = = 0, 947
2, 728 − 2, 182
A Tabela 12.13 mostra os ı́ndices calculados supondo que os dados tem a distribuição normal.
12. Análise de Performance do Processo para Dados Não Normais 265
Calculando a média X
r
(17, 65 − 17, 3876)2 + · · · + (18, 52 − 17, 3876)2
s =
25 − 1
r
15, 39046 p
= = 0, 641269 = 0, 8.
24
3 3
(17,65−17,38) (18,52−17,38)
0,8
+ ··· + 0,8
Sk =
25
26, 30
= = 1, 05.
25
4 4
(17,65−17,38) (18,52−17,38)
0,8
+ ··· + 0,8
Ku = −3
25
86, 05
= − 3 = 0, 44.
25
Para Sk = 1, 1 e Ku = 0, 4 obtemos
• q20 = -0,336, pois Sk > 0, que corresponde ao percentil 0,50 da curva de Pearson, ver
Tabela ?? do apêndice ??;
• q30 = 3,264, que corresponde ao percentil 99,865 da curva de Pearson, ver Tabela ?? do
apêndice ??.
20, 5 − 17, 11
PPS = = 1, 173.
20 − 17, 11
Estimação de densidade
Considerando que R seja continua e pequena de forma que p(x) não varia, teremos
Z
P̂ = p(x0 )dx0 = p(x) × V
R
onde V é o volume de R.
Se retiramos n pontos de maneira independente de p(x), então a probabilidade que k deles
12. Análise de Performance do Processo para Dados Não Normais 268
Temos também, que o número médio de pontos caindo em R é dado pela esperança matemática
de k, E[k] = n.P . Considerando n grande, temos
k
P̂ = p(x) × V , P̂ =
| {z n}
k
p̂(x) × V =
n
Logo a estimação de densidade p(x) é
k/n
p(x) ≈
V
Se as regiões Ri não tem intersecção, temos um histograma
Janela de Parzen
k/n
p(x) ≈
V
Por exemplo,
Podemos definir uma expressão para encontrar a quantidade de pontos que caem em R, a
qual é definida como função de Kernel ou Parzen window
Suponha que temos 7 observações D = {2, 3, 4, 8, 10, 11, 12} e o tamanho da janela h =
3. Estimar a densidade em x = 1.
Uma alternativa a janela quadrada usada até então é a janela Gaussiana. Nesse caso,
os pontos que estão próximos a xi recebem um peso maior. A estimação da densidade é então
suavizada
Exemplo 12.9. Voltando ao exemplo anterior D = {2, 3, 4, 8, 10, 11, 12}, para h = 1,
terı́amos
12. Análise de Performance do Processo para Dados Não Normais 271
Apesar do kernel Gaussiano ser mais freqüentemente utilizado, há várias escolhas entre
kernels como mostrado na tabela abaixo
12. Análise de Performance do Processo para Dados Não Normais 272
Exemplo 12.10. Medições do diâmetro de um pino feitas com súbito, pegando 3 peças a cada
20 produzidas. Analisar a estabilidade e a capacidade do processo.
No exemplo temos:
m = Número de Amostras = 16
n = Tamanho das Amostras = 3
LSE = 40 e LIE = 30.
Observamos a seguir que os dados não seguem nenhuma distribuição testada
12. Análise de Performance do Processo para Dados Não Normais 273
Índices Observados
PPM > LSE 0
PPM < LIE 0
PPM Total 0
Índices Esperados
PPM > LSE 5601,977638
PPM < LIE 0
PPM Total 5601,977638
Capı́tulo 13
Capacidade para dados atributivos é simplesmente definida (AIAG (1995)) como a pro-
porção média ou a taxa de não conformidade do produto, visto que, os gráficos de variáveis
referem-se a variação (6σ̂R/d2 ) inerente produzida pelo processo estável.
• O resultado de cada item avaliado deve ser obtido nas mesmas condições de avaliação dos
demais itens.
DT ot
p̄ =
NT ot
em que DT ot = Soma das quantidades de itens defeituosos em cada amostra.
NT ot = Quantidade de itens avaliados.
ν1 ∗ F( α ,ν1 ,ν2 )
2
Limite inferior ( LI ) =
ν2 + ν1 ∗ F( α ,ν1 ,ν2 )
2
%Defeituosos LI = LI × 100
%Defeituosos LS = LS × 100
em que
• ν1 = 2 ∗ DT ot
• ν2 = 2(NT ot − DT ot + 1)
• ν3 = 2 ∗ (DT ot + 1)
• ν4 = 2 ∗ (NT ot − DT ot )
• F( α ,ν1 ,ν2 ) = Quantil da distribuição F com ν1 e ν2 graus de liberdade e que deixa uma
2
área de α2 à esquerda.
• F(1− α ,ν3 ,ν4 ) = Quantil da distribuição F com ν3 e ν4 graus de liberdade e que deixa uma
2
área de 1 − α2 à esquerda.
em que
13. Análise de Performance para Atributos 277
φ−1 (p̄): Quantil da distribuição normal padrão (0,1) com área acumulada igual a p̄.
Intervalo de confiança para o ı́ndice de capacidade (Z)
Exemplo 13.1. Uma indústria está interessada em analisar a capacidade do processo no qual
verifica-se a proporção de peças defeituosas em lotes de 1000 peças. Os dados estão na Tabela
13.1
13. Análise de Performance para Atributos 278
DT ot 8664
p̄ = = = 0, 4332
NT ot 20000
% Peças defeituosas = 43,32.
Intervalo de confiança para % peças defeituosas
Calculando os valores de ν e F temos
ν1 = 2 ∗ DT ot = 2 ∗ (8664) = 17328
ν2 = 2(NT ot − DT ot + 1) = 2 ∗ (20000 − 8664 + 1) = 22674
ν3 = 2 ∗ (DT ot + 1) = 2 ∗ (8664 + 1) = 17330
13. Análise de Performance para Atributos 279
ν1 ∗ F α2 ,ν1 ,ν2
Limite inferior ( LI ) =
ν2 + ν1 ∗ F α2 ,ν1 ,ν2
• A taxa de não-conformidades por unidade (tempo, medida, etc.) é a mesma para qualquer
item.
13. Análise de Performance para Atributos 280
DT ot
Def =
N
em que
1
Limite inferior ( LI ) = 0, 5 ∗ ∗ χ2( α ,v )
NT ot 2 1
1
Limite superior ( LS ) = 0, 5 ∗ ∗ χ2(1− α ,v )
NT ot 2 2
em que
• v1 = 2 ∗ DT ot
• v2 = 2(DT ot + 1)
A média de não-conformidades por unidade de medida dentre todas as amostras é dada por
DT ot
DP U =
NT ot
em que
DT ot = Soma de todas as não-conformidades
NT ot = Soma de todos os tamanhos de amostra
13. Análise de Performance para Atributos 281
1
Limite inferior ( LI ) = 0, 5 ∗ ∗ χ2( α ,v )
N 2 1
1
Limite superior ( LS ) = 0, 5 ∗ ∗ χ2(1− α ,v )
N 2 2
em que
• v1 = 2 ∗ DT ot
• v2 = 2(DT ot + 1)
Exemplo 13.2. Uma indústria está interessada em analisar a capacidade do processo no qual
verifica-se o número de pontos não-conformes numa lâmina de aço, sendo que cada lâmina
mede 50 cm2 . Os dados estão na Tabela 13.2.
13. Análise de Performance para Atributos 282
1 2 50
2 4 50
3 3 50
4 1 50
5 2 50
6 5 50
7 2 50
8 5 50
9 4 50
10 1 50
11 6 50
12 3 50
13 3 50
14 6 50
15 1 50
16 4 50
17 1 50
18 8 50
19 1 50
20 4 50
21 4 50
22 2 50
23 4 50
24 2 50
25 1 50
26 2 50
27 2 50
28 3 50
29 4 50
30 4 50
Total 94 1500
13. Análise de Performance para Atributos 283
DT ot 94
Def = = = 3, 13333.
N 30
1 1
LI = 0, 5 ∗ ∗ χ20,025.v1 = 0, 5 ∗ ∗ 151, 9231 = 2, 532052.
NT ot 30
1 1
LS = 0, 5 ∗ ∗ χ20,975.v2 = 0, 5 ∗ ∗ 230, 0644 = 3, 834406667.
NT ot 30
DT ot 94
DP U = = = 0, 0627.
NT ot 1500
1 1
LI = 0, 5 ∗ ∗ χ20,025.v1 = 0, 5 ∗ ∗ 151, 9231 = 0, 05064103
NT ot 1500
1 1
LS = 0, 5 ∗ ∗ χ20,975.v2 = 0, 5 ∗ ∗ 230, 0644 = 0, 07668813
NT ot 1500
onde:
v1 = 2 ∗ DT ot = 2 ∗ 94 = 188
v2 = 2 ∗ (DT ot + 1) = 2 ∗ 95 = 190
min DP U = 0, 02
max DP U = 0, 16
284
Capı́tulo 14
Exercı́cios
LSC = X + A2 × R =
LC = X =
LIC = X − A2 × R =
LSC = D4 × R =
LC = R =
LIC = D3 × R =
14. Exercı́cios 286
• Análise de capacidade
Dado que:
LSE = 11; LIE = 10 ; R = 0, 365; µ̂ = X = 10, 511
Como o p-valor associado ao teste de Anderson-Darling é maior que 0, 05, aceitamos que a
distribuição dos dados é aproximadamente Normal.
14. Exercı́cios 287
R
σ̂ = =
d2
LSE − LIE
Cp = =
6σ̂
µ̂ − LIE
CP I = =
3σ̂
LSE − µ̂
CP S = =
3σ̂
14. Exercı́cios 288
Cpk = min{CP I, CP S}
LSE − µ̂
ZLSE = =
σ̂
µ̂ − LIE
ZLIE = =
σ̂
P P MLIE =
P P MLIE =
14. Exercı́cios 289
Resolução:
Inicialmente calculamos os valores para X e M R
14. Exercı́cios 290
X1 + . . . + X25
X = =
25
m
1 X
MR = |xi − xi−1 | =
24 i=2
Os dados da tabela d2
3
d2 = 1, 128; E2 = = 2, 6595; D3 = 0; D4 = 3, 267 (para n = 2)
d2
Para os Valores Individuais (X):
3M R
LSC = X + = X + E2 × M R =
d2
LC = X =
3M R
LIC = X − = X − E2 × M R =
d2
LSC = D4 × M R =
LC = M R =
LIC = D3 × M R =
14. Exercı́cios 291
• Análise de capacidade
Dado que:
LSE = 4,5; M R = 0, 29083; µ̂ = X = 3, 1788
Como p-valor associado ao teste de Anderson-Darling é maior que 0.05, aceitamos que a
distribuição dos dados é aproximadamente Normal.
14. Exercı́cios 292
R
σ̂ = =
d2
LSE − LIE
Cp = =
6σ̂
µ̂ − LIE
CP I = =
3σ̂
LSE − µ̂
CP S = =
3σ̂
Cpk = min{CP I, CP S} =
14. Exercı́cios 293
LSE − µ̂
ZLSE = =
σ̂
µ̂ − LIE
ZLIE = =
σ̂
P P MLIE =
P P MLIE =
14. Exercı́cios 294
Exercı́cio 16. Na usinagem de peças, uma caracterı́stica importante é o diâmetro das mesmas.
A Tabela 14.3 apresenta as medições na produção de 25 lotes com 11 amostragens. Analise a
capacidade do processo.
LSC = X + A3 × s =
LC = X =
LIC = X − A3 × s =
LSC = B4 × s
LC = s
LIC = B3 × s
14. Exercı́cios 296
•Análise de capacidade
Dado que:
LSE = 6,0, LIE = 3,5, s = 0, 4424, µ̂ = X = 4, 9998
Como o p-valor associado ao teste de Anderson-Darling é maior que 0, 05, aceitamos que a
distribuição dos dados é aproximadamente Normal.
14. Exercı́cios 297
σ̂ajust = s =
LSE − LIE
PP = =
6σ̂ajust
µ̂ − LIE
PPI = =
3σ̂ajust
LSE − µ̂
PPS = =
3σ̂ajust
14. Exercı́cios 298
Ppk = min{P P I, P P S}
LSE − µ̂
ZLSE = =
σ̂ajust
µ̂ − LIE
ZLIE = =
σ̂ajust
P P MLSE =
P P MLIE =
P P MLIE =
14. Exercı́cios 299
Exercı́cio 17. Considere o processo de usinagem de um pino, onde o diâmetro é medido por
amostragem de 5 peças em 25 lotes conforme a Tabela 14.4. Analise estabilidade e a capacidade
do processo.
m = Número de Amostras = 25
n = Tamanho das Amostras = 5
LSC = X + A3 × s =
LC = X =
LIC = X − A3 × s =
LSC = B4 × s =
LC = s =
LIC = B3 × s =
14. Exercı́cios 301
• Análise de capacidade
Dado que:
LSE = 2,8; LSI =0,15 , s = 0, 6508; µ̂ = X = 1, 366
Como p-valor associado ao teste de Anderson-Darling é menor que 0.05, notamos que a
distribuição Normal não parece adequada aos dados.
14. Exercı́cios 302
Os dados obtidos com essa transfromação têm média e desvio-padrão amostral dados por
x = 0, 2576 e s = 0, 5917, respectivamente.
Pelo gráfico do Papel Normal, temos evidência de que a distribuição normal é adequada a
estes dados transformados.
14. Exercı́cios 304
Para os dados transformados (normais), podemos obter o novo limite superior do processo
aplicando a transformação de Box-Cox ao limite superior dos dados não transformados como
X 0,4797 − 1
LSE = =
0, 4797
• Cálculo do Pp
LSE − LIE
Pp = =
q3 − q1
• Cálculo de P P S e P P I
LSE − q2
PPS = =
WS ∗ s
q2 − LIE
PPI = =
WI ∗ s
14. Exercı́cios 305
em que
q 2 − q1
WI = =
s
q3 − q2
WS = =
s
Assim:
LSE − q2 LSE − q2 LSE − q2
PPS = = q3 −q2 = =
WS ∗ s s
s q3 − q2
• Cálculo de Ppk
Ppk = min(P P S; P P I) =
• Cálculo de P P MT otal
Qtde.deObs. < LIE
P P MObs < LIE = ∗ 1.000.000 =
n
Qtde.deObs. > LSE
P P MObs > LSE = ∗ 1.000.000 =
n
14. Exercı́cios 306
22, 7 + . . . + 26 542
X= = =
25 25
2, 0 + . . . + 2, 5 70, 7
MR = = =
24 24
Pela tabela do Anexo 2 (n=2), obtemos os valores: 1/d2 = 0, 8865, D3 = 0 e D4 = 3, 267
Limites de controle para os valores individuais:
MR
LSC = X + 3 × =
d2
LC = X =
MR
LIC = X − 3 × =
d2
LSC = D4 × M R =
LC = M R =
LIC = D3 × M R =
14. Exercı́cios 309
•Análise de capacidade
Dado que:
LSE = 26, LIE = 18,5, R = 2, 9458, µ̂ = X = 21, 68
Como o p-valor associado ao teste de Anderson-Darling é maior que 0, 05, aceitamos que a
distribuição dos dados é Normal.
14. Exercı́cios 310
R
σ̂ = =
d2
LSE − LIE
Cp = =
6σ̂
µ̂ − LIE
CP I = =
3σ̂
LSE − µ̂
CP S = =
3σ̂
Cpk = min{CP I, CP S}
14. Exercı́cios 311
LSE − µ̂
ZLSE = =
σ̂
µ̂ − LIE
ZLIE = =
σ̂
P P MLIE =
P P MLIE =
14. Exercı́cios 312
Exercı́cio 19. A seguir temos uma amostra de 25 dados referentes a Concentração (gr/l).
Avalie a performance do processo, assumindo que os dados seguem distribuição normal. Utilize
os métodos de variabilidade a longo prazo e a curto prazo.
Temos que
LIE = 0, 90 e LSE = 1, 50
Solução:
14. Exercı́cios 313
e com isso,
LSE − LIE
Pp = =
6b
σ
e
LSE − µ
b µ b − LIE
Ppk = min ;
3b
σ 3b
σ
LSE − µ
b
Z LSE = =
σ
b
b − LIE
µ
Z LIE = =
σ
b
Agora, vamos determinar o PPMT otal , mas para isso, antes temos que calcular
Assim,
R̄ 0, 0488
σ
b= = =
d2 1, 128
P25
onde R̄ = i=2 mod (xi − xi−1 ) = 0, 0488
Com isso, calculamos os ı́ndices de Capacidade do Processo:
LSE − LIE
Cp = =
6b
σ
LSE − µ
b µ b − LIE
Cpk = min ;
3b
σ 3b
σ
LSE − µ
b
Z LSE = =
σ
b
b − LIE
µ
Z LIE = =
σ
b
Logo,
Exercı́cio 20. A Tabela 14.7 apresenta os dados, ao longo de 15 dias, referentes ao número de
pedidos de compras que foram preenchidos de forma errada. Analise a capacidade do processo
332
p= =
3000
LC = p =
r
p(1 − p)
LIC = p − 3 =
n
14. Exercı́cios 316
•Análise de capacidade
DT ot
p̄ = =
NT ot
Os limites são dados por:
ν1 ∗ F( α ,ν1 ,ν2 )
2
Limite inferior ( LI ) = =
ν2 + ν1 ∗ F( α ,ν1 ,ν2 )
2
em que:
• ν1 = 2 ∗ DT ot =
• ν2 = 2(NT ot − DT ot + 1) =
• ν3 = 2 ∗ (DT ot + 1) =
• ν4 = 2 ∗ (NT ot − DT ot ) =
• P P M = p̄ × 106
14. Exercı́cios 317
14. Exercı́cios 318
Exercı́cio 21. Apresente um outro procedimento para analisar os dados do exercı́cio 14.
Como a quantidade da amostra é fixa (200), podemos analisar os dados utilizando o gráfico
NP .
Limites de controle para o gráfico N P :
p
LSC = np + 3 np(1 − p) =
LC = np =
p
LIC = np − 3 np(1 − p) =
14. Exercı́cios 319
8 + 12 + . . . + 10 555
c = média das não conformidades = = =
30 30
√
LSC = c + 3 c =
LC = c =
√
LIC = c − 3 c =
14. Exercı́cios 321
•Análise de capacidade
Dado DT ot = 555 e NT ot = 900
DT ot 555
p̄ = = =
NT ot 900
ν1 ∗ F( α ,ν1 ,ν2 )
2
LI = =
ν2 + ν1 ∗ F( α ,ν1 ,ν2 )
2
em que:
• ν1 = 2 ∗ DT ot =
• ν2 = 2(NT ot − DT ot + 1) =
• ν3 = 2 ∗ (DT ot + 1) =
• ν4 = 2 ∗ (NT ot − DT ot ) =
• P P M = p̄ × 106 =
Índice de capacidade:
Exercı́cio 23. O departamento técnico de uma empresa deseja estabelecer um gráfico de con-
trole para a não conformidade por unidade no final da linha de produção. A Tabela 14.9
apresenta o número de não-conformidades observados em 20 amostras de 5 peças. Analise a
capacidade do processo.
n = Tamanho da amostra = 5
2 + 2, 4 + . . . + 1 38, 6
u = média das não conformidades = = =
20 20
r
u
LSC = u + 3 =
n
LC = u =
r
u
LIC = u − 3 =
n
•Análise de capacidade:
N = número de amostras = 20
NT ot = soma dos tamanhos das amostras = 100
DT ot = total de não conformidades = 193
1
LI = 0, 5 ∗ ∗ χ2( α ,v ) =
N 2 1
1
LS = 0, 5 ∗ ∗ χ2(1− α ,v ) =
N 2 2
em que:
• v1 = 2 ∗ DT ot =
• v2 = 2(DT ot + 1) =
DT ot
DP U = =
NT ot
14. Exercı́cios 324
14. Exercı́cios 325
Número do lote Metragem do rolo Largura do rolo Área do rolo Total de manchas Manchas por Área
131910 56,1 4,142 232 2 0,009
131938 53 4,143 220 0 0,000
131982 56,04 4,147 232 1 0,004
131988 56,09 4,145 232 4 0,017
132008 56,04 4,144 232 0 0,000
122033 56,014 4,145 232 3 0,013
132043 28,04 4,142 116 1 0,009
132064 56,04 4,143 232 11 0,047
132094 56,04 4,142 232 2 0,009
132119 56,16 4,143 233 11 0,047
132140 56,04 4,142 232 8 0,034
132166 56,16 4,147 233 6 0,026
132193 56,17 4,142 233 10 0,043
132218 56,17 4,142 233 3 0,013
132226 56,211 4,143 233 0 0,000
132266 56,04 4,145 232 0 0,000
132293 56,14 4,144 233 0 0,000
132314 56,11 4,143 232 6 0,026
132347 56,11 4,142 232 4 0,017
131373 55,03 4,146 228 3 0,013
132397 56,03 4,147 232 3 0,013
132430 56,11 4,143 232 5 0,022
132452 56,08 4,143 232 2 0,009
132482 55,13 4,143 228 7 0,031
132495 56,04 4,142 232 2 0,009
n = Tamanho da amostra = 25
u = 0, 016
r
u
LSC = u + 3 =
n
LC = u =
r
u
LIC = u − 3 =
n
14. Exercı́cios 326
14. Exercı́cios 327
Exercı́cio 25. Considere os dados da Tabela 14.10. Avaliar a Performance do processo para
LSE = 2, 5, Alvo = 2, 0, LIE = 1, 5 e n = 100. Calcule os ı́ndices de Performance do
Processo segundo o método de Clementes.
O Papel de Probabilidade para estes dados está disposto na Figura 14.1 a seguir. Pelo gráfico
e pela tabela anterior, concluı́mos que os dados não se adequam a nenhuma das distribuições
anteriores.
14. Exercı́cios 328
q1 = X − s × q10 =
q2 = X + s × q20 =
q3 = X + s × q30 =
LSE−LIE
Pp = q3 −q1
=
q2 −LIE
PPI = q2 −q1
=
LSE−q2
PPS = q3 −q2
=
Ppk = min(P P S, P P I) =
14. Exercı́cios 330
Pelos gráficos a seguir e pela tabela anterior, concluı́mos que os dados se adequam as dis-
tribuições exponencial e Weibull, consideraremos apenas a Weibull.
14. Exercı́cios 331
α̂ = 0, 8125 e δ̂ = 1, 30478.
E com isso,
1
E[T ] = 0, 8125 ∗ Γ 1 +
1, 30478
= 0, 8125 ∗ 0, 9228977
= 0, 7498544
= 0, 3360181
14. Exercı́cios 332
p
s= 0, 3360181 = 0.5796707
A seguir temos o gráfico e os cálculos dos ı́ndices de performance para LSE = 2, 7 e LIE = 0, 04.
• Cálculo do Pp
LSE − LIE
Pp =
q3 − q1
em que LSE = Limite Superior de Especificação
q1 = 0,00514
q3 = 3,454
Assim:
2, 7 − 0, 04
Pp = =
3, 454 − 0, 00514
• Cálculo de P P S e P P I
LSE − q2 q2 − LIE
PPS = PPI =
WS ∗ s WI ∗ s
14. Exercı́cios 333
q2 − q1 q 3 − q2
WI = WS =
s s
Assim:
0, 6135 − 0, 00513 3, 454 − 0, 6135
WI = = WS = =
0.5796707 0.5796707
2, 7 − 0, 6135 0, 6135 − 0, 04
PPS = = PPI = =
W S ∗ 0.5796707 W I ∗ 0.5796707
• Cálculo de Ppk
Ppk = min(P P S; P P I) =
P P MLIE < LIE = 1.000.000 ∗ qLIE P P MLSE > LSE = 1.000.000 ∗ (1 − qLSE )
em que
qLIE = 0,01947083
qLSE = 0,0082986
Assim:
P P MLIE < LIE = 1.000.000 ∗ 0, 01947083 = 19470, 83
P P MObs < LIE = Proporção observada de dados menores que o LIE × 1.000.000
Qtde. de Obs. < LIE 0
= ∗ 1.000.000 = ∗ 1.000.000 = 0.
n 50
14. Exercı́cios 334
P P MObs > LSE = Proporção observada de dados maiores que o LSE × 1.000.000
Qtde. de Obs. > LSE 1
= ∗ 1.000.000 = ∗ 1.000.000 = 20.000.
n 50
Exercı́cio 27. Temos a seguir dados que representam resultados da inspeção em unidades de
um computador no decorrer de 10 dias.
Gráfico p
Calculamos agora o Limite Superior e o Limite Inferior para a primeira amostra ni = 80, o
mesmo deve ser feito para todas as outras amostras.
• Limite Superior:
s
p (1 − p)
LSC = p̄ + 3
ni
r
(0, 06) (0, 94)
= 0, 06 + 3
80
=
• Linha Central:
P10
Di 60
LC = p = Pi=1
10 = = 0, 06
i=1 ni
1000
14. Exercı́cios 336
• Limite Inferior:
s
p (1 − p)
LIC = p − 3
ni
r
(0, 06) (0, 94)
= 0, 06 − 3
80
=
Exercı́cio 28. Medições do diâmetro do cilindro número 2, medições feitas com súbito com
relógio centesimal, pegando 5 peças a cada 20 produzidas. Analisar a estabilidade e a capacidade
do processo.
No exemplo temos:
m = Número de Amostras = 25
n = Tamanho das Amostras = 5
14. Exercı́cios 338
0, 1 + . . . + 0, 14
X = =
25
0, 06 + . . . + 0, 11
R = =
25
LC = X =
LC = R =
LIC = D3 × R = 0 × 0, 0448 =
14. Exercı́cios 339
Como o p-valor associado ao teste de Anderson-Darling é maior que 0, 01, aceitamos que a
distribuição dos dados é aproximadamente normal.
14. Exercı́cios 340
• Análise de capacidade
Dado que:
LSE = 0,2; LIE = -0,2 ; R = 0, 0448; µ̂ = X = 0, 15552
1
σ̂ = R × =
d2
LSE − LIE
Cp = =
6σ̂
14. Exercı́cios 341
µ̂ − LIE
CP I = =
3σ̂
LSE − µ̂
CP S = =
3σ̂
Cpk = min{CP I, CP S} =
LSE-LIE
Pp = =
6×s
x − LIE
PPI = =
3×s
LSE − x
PPS = =
3×s
Exercı́cio 29. Medições do diâmetro do cilindro número 3, medições feitas com súbito, pegando
5 peças a cada 20 produzidas. Analisar a estabilidade e a capacidade do processo.
No exemplo temos:
m = Número de Amostras = 25
n = Tamanho das Amostras = 5
60, 8 + . . . + 61, 6
X = =
25
2 + ... + 3
R = =
25
14. Exercı́cios 343
LSC = X + A2 × R =
LC = X =
LIC = X − A2 × R =
LSC = D4 × R =
LC = R =
LIC = D3 × R =
14. Exercı́cios 344
• Análise de capacidade
Dado que:
LSE = 73; LIE = 47 ; R = 2, 56; µ̂ = X = 60, 912
Como o p-valor associado ao teste de Anderson-Darling é menor que 0, 01, não aceitamos
que a distribuição dos dados é aproximadamente normal.
14. Exercı́cios 345
Índices Observados
PPM > LSE 0
PPM < LIE 0
PPM Total 0
Índices Esperados
PPM > LSE 0
PPM < LIE 0
PPM Total 0
3 3
(61−60,912) (60−60,912)
P
[(xi − x)/s]3 1,4256634
+ ··· + 1,4256634
Sk = = =
n 125
4 4
(61−60,912) (60−60,912)
P
[(xi − x)/s]
4
1,4256634
+ ··· + 1,4256634
Ku = −3= −3=
n 125
• q10 = ..... , que corresponde ao percentil 0,135 da curva de Pearson, ver Tabela ?? do
apêndice ??;
• q20 = ..... , que corresponde ao percentil 0,50 da curva de Pearson, ver Tabela ?? do
apêndice ??;
• q30 = ..... , que corresponde ao percentil 99,865 da curva de Pearson, ver Tabela ?? do
apêndice ??.
q1 = X − s × q10 =
q2 = X + s × q20 =
q3 = X + s × q30 =
LSE − LIE
Pp = =
q 3 − q1
q2 − LIE
PPI = =
q2 − q 1
LSE − q2
PPS = =
q3 − q2
Ppk = min(P P I; P P S) =
Exercı́cio 30. Foram feitas medições do diâmetro do cilindro em duas posições (em cima e em
baixo), medições feitas com súbito com relógio centesimal, pegando 1 peça a cada 10 produzidas.
Analisar a estabilidade.
Amostras Medição (em cima) Medição (em baixo)
1 0,15 0,09
2 0,16 0,15
3 0,09 0,08
4 0,16 0,18
5 0,14 0,12
6 0,18 0,16
7 0,19 0,15
8 0,13 0,14
9 0,14 0,12
10 0,11 0,12
11 0,17 0,11
12 0,13 0,15
13 0,16 0,15
14 0,16 0,16
15 0,17 0,19
16 0,12 0,14
17 0,14 0,16
18 0,2 0,2
19 0,18 0,17
20 0,17 0,21
21 0,21 0,22
22 0,2 0,2
23 0,15 0,18
24 0,16 0,13
25 0,19 0,16
¯ =
X̄
s̄ =
R̄ = .
LSC = X + E2 M R =
LC = X =
LIC = X − E2 M R =
P
M Ri 3
onde M R é a média das amplitudes móveis. M R = e E2 = d2
é a constante tabelada
m
no Anexo 2
Gráfico de amplitudes móveis: (variação entre as médias das peças) Os limites
de controle são calculados a seguir:
LC = M R = 0, 4226875
LIC = D3 M R = 0 ∗ 0, 4226875 = 0
LSC = D4 ∗ R =
LC = R =
LIC = D3 ∗ R =
14. Exercı́cios 352
353
Referências Bibliográficas
[1] Baldez, C. C. (2007), O Balanced Scorecard (BSC) na prática. Banas Qualidade, no 187,
p. 58-60, dez/2007.
[4] Pyzdek, T. (2003), The Six Sigma Handbook, McGraw-Hill, New York.
[6] Douglas C. Montgomery - Introduction to Statistical Quality Control, John Wiley and
Sons, 1985.
[9] Forrest W. Breyfogle (1999) - Implementing Six Sigma: Smarter Solution Using Statistical
Methods, John Wiley & Sons, INC.
[13] ISO 21747 - Statistical methods - Process performance and capability statistics for mea-
sured quality characteristics, First Edition, 2006.
[14] Breyfogle, Forrest W. - Implementing Six Sigma: Smarter Solution Using Statistical Meth-
ods, John Wiley & Sons, INC, (1999).