Fazer download em docx, pdf ou txt
Fazer download em docx, pdf ou txt
Você está na página 1de 144

A variação de peça a peça pode ser estimada uma vez que o processo de medição

é mostrado para ter adequado discriminação e para ser estábulo, preciso, linear (ver
abaixo), e consist- barraca com respeito para repetibilidade e reprodutibilidade. Se o
parte a parte padrão desvia- ção é para ser estimado de o medição sistema estudar
dados, o seguindo procedimentos São seguidos:

1. Trama o média para cada papel (entre todos avaliadores) sobre um médias
ao controle gráfico, como mostrado em o erro de reprodutibilidade método
alternativo.
2. confirme que no ao menos 50% de o médias cair fora o ao controle limites. Se
não, encontrar um melhor sistema de medição para este processo.
3. Encontre o intervalo das médias das peças, R p .
4. Calcular  p  R p / d  , o parte a parte padrão desvio. O valor de d  é
2 2
encontrado em Mesa 11 em o Apêndice usando m  o número de peças e g  1,
desde lá é apenas um R Cálculo.
5. O total processo padrão desvio é encontrado como  2  2.
t
m
Uma vez o acima cálculos ter estive feito, o geral medição sistema pode ser
avaliado.

1. O %EV  100  (  e /  T )%
2. O %DE  100  (  o /  T )%
3. O por cento repetibilidade e reprodutibilidade (R&R) é 100  (  m /  t )%.
4. O número de distinto dados categorias que pode ser criada com esse medir-
sistema de mento é 1,41  (PV/R&R).

Exemplo de Medição Sistema Análise Resumo


1. Plote a média para cada parte (em todos os avaliadores) em um controle de
médias gráfico, como mostrando em o reprodutibilidade erro alternar
método. Feito mais cedo, ver Fig. 9.8.
2. Confirme se pelo menos 50% das médias estão fora dos limites de controle. Se
não, encontrar um sistema de medição melhor para este processo. 4 das 5
médias parciais, ou 80%, estão fora dos limites de controle. Assim, o erro do
sistema de medição é aceitável.
3. Encontrar o intervalo das médias das peças, R p .

R p  130,33  108.075  22.23

4. Calcular  p  R p / d 2 , o parte a parte padrão desvio. O valor de d  é 2


encontrado em Mesa 11 em o Apêndice usando m  o número de peças e g  1,
desde lá é apenas um cálculo R.

m  5, g  1, d  = 2.48,   22.23/2:48  8,96


2 p
2 2
5. O desvio padrão total do processo é encontrado como  mt   p

t   80.5
2m  2p (0.44)2  (8.96)2   8,97

Uma vez o acima cálculos ter estive feito, o geral medição sistema pode ser
avaliado.

1. O %EV  100  (  e /  T )%  100  0,44/8,97  4,91%


2. O %DE  100  (  o /  T )%  100  0/8,97  0%
3. O por cento R&R é 100  (  m /  t )%

m 0,44
100 %  100  4,91%
t 8,97

4. O número de distinto dados categorias que pode ser criada com esse medir-
sistema de mento é 1,41  (PV/R&R)

46,15
1.41   28.67  28
2.27

Como o número mínimo de categorias é cinco, a análise indica que esse medição
sistema é mais que adequado para processo análise ou processo ao controle.

Calibrar R&R Análise Usando MinitabName


MinitabName tem a construídas em capacidade para executar calibrar repetibilidade e
reprodutibilidade viga- sim. Para ilustrar esses capacidades, o anterior análise vai ser
repetido usando Minitab. Para começar, os dados devem ser reorganizados no
formato esperado pelo Minitab (Fig. 9.10). Para fins de referência, as colunas C1–C4
contêm os dados em nosso formato original e colunas C5–C8 contém os mesmos
dados no formato preferido do Minitab.
MinitabName ofertas dois diferente métodos para realizando calibrar R&R
estudos: cruzado e aninhado. Usar calibrar R&R aninhado quando cada papel pode
ser medido por apenas um operador, como com testes destrutivos. Caso contrário,
escolha o medidor R&R cruzado. Para fazer isso, selecione Stat > Quality Tools > Gage
R&R Study (Crossed) para acessar a caixa de diálogo do Minitab para análise (Fig.
9.11). Além de escolher se o estudo é cruzado ou aninhado, MinitabName também
ofertas ambos o ANOVA e o barra X e R métodos. Você deve escolher o Opção
ANOVA para obter uma divisão da reprodutibilidade por operador e operador por
papel. Se o método ANOVA for selecionado, o Minitab ainda exibirá a barra X e os
gráficos R para você não perderá as informações contidas nos gráficos. Usaremos
ANOVA neste exemplo. Observe que os resultados dos cálculos serão ligeiramente
diferentes daqueles que obtido usando o barra X e métodos R.
Lá é um opção em calibrar R&R para incluir o processo tolerância. Esse vai
fornecer comparações de calibrar variação com respeito para o especificações em
Adição para o vari- capacidade em relação à variação do processo. Esta é uma
informação útil se o medidor for usado para fazer produtos aceitação decisões. Se o
processo é "capaz" em o senso que o total variabilidade é menos que o tolerância,
então qualquer calibrar que atende o critério para
F IGURA 9.10 Dados formatado para MinitabName entrada.

F IGURA 9.11 MinitabName calibrar R&R (cruzado) diálogo caixa.

a verificação do processo também pode ser usada para aceitação do produto. No


entanto, se o processo não é capaz, então sua saída precisará ser classificada e o
medidor usado para classificação pode precisam de mais poder discriminatório do
que o medidor usado para controle de processo. Por exemplo, a calibrar capaz de
cinco distinto dados categorias para o processo poderia ter quatro ou menos para o
produto. Para fins de ilustração, inserimos um valor de 40 no processo caixa de
tolerância no Caixa de diálogo de opções do Minitab (Fig. 9.12).
F IGURA 9.12 MinitabName calibrar R&R (cruzado) opções diálogo caixa.

Saída
O Minitab produz saída abundante, incluindo seis gráficos separados, várias tabelas,
etc. Grande parte da saída é idêntica ao que foi discutido anteriormente neste capítulo
e não vai ser mostrado aqui.
Mesa 9.3 shows o análise de variância para o R&R estudar. Em o ANOVA o
EM para repetibilidade (0,212) é usado como o denominador ou erro prazo para
calculando o F -ratio de o Operador  PartNum interação; 0,269/0,212  1.27. O F -
ratio para o Operador efeito é encontrado por usando o Operador  PartNum
interação EM prazo como o denominador, 0,061/0,269  0,22. O F -razões são usado
para calcular o P valores, que mostram a probabilidade de que a variação observada
para a linha de origem possa ser devido para chance. Por convenção, a P valor
menos que 0,05 é o crítico valor para decidir- afirmando que uma fonte de variação é
“significativa”, isto é, maior que zero. Por exemplo, o valor P para a linha PartNum é
0, indicando que a variação entre peças é quase certamente não zero. Os valores P para
Operador (0,66) e Operador  PartNum interação (0,34) são maiores que 0,05, então
concluímos que as diferenças contabilizadas para por esses fontes poder ser zero. Se
o Operador prazo era significativo (P < 0,05) nós seria concluir que lá eram
estatisticamente significativo diferenças entre operadores, alertando um investigação
em subjacente causas. Se o interação termo foi significativo, poderíamos concluir
que um operador obteve resultados diferentes resultados com alguns, mas não todos,
peças.

Fonte DF SS EM F P
PartNum 4 1301.18 325.294 1208.15 0
Operador 1 0,06 0,061 0,22 0,6602
Operador*PartNum 4 1.08 0,269 1.27 0,34317
Repetibilidade 10 2.12 0,212
Total 19 1304.43

MESA _ 9.3 ANOVA de duas vias Mesa com Interação


Fonte DF SS EM F P
PartNum 4 1301.18 325.294 1426,73 0
Operador 1 0,06 0,061 0,27 0,6145
Repetibilidade 14 3.19 0,228
Total 19 1304.43

MESA _ 9.4 Bidirecional ANOVA Mesa sem Interação

A próxima saída do Minitab é mostrada na Tabela 9.4. Esta análise removeu a


interação ção prazo de o modelo, deste modo ganhando quatro graus de liberdade
para o erro prazo e fazendo o teste mais confidencial. Em alguns casos esse poder
identificar a significativo efeito que era perdido por o maior modelo, mas para esse
exemplo o conclusões são inalterado.
MinitabName também decompõe o total variância em componentes, como
mostrando em Mesa 9.5. O VarComp coluna shows o variância atribuído para cada
fonte, enquanto o por cento- idade de VarComp mostra a porcentagem da variância
total contabilizada por cada fonte. A análise indica que quase todos a variação é entre
as peças.
A análise de variância mostrada na Tabela 9.5, embora precisa, não está nas
unidades originais. (Variações são o quadrados de Medidas.) Tecnicamente, esse é o
correto caminho para ana- analisar informações sobre a dispersão porque as
variâncias são aditivas, enquanto a dispersão mede garantias expressas em unidades
originais não são. No entanto, existe um interesse natural em vendo um análise de
dispersão em o original unidades então MinitabName fornece esse. Mesa 9.6

Fonte VarComp % de VarComp


Total calibrar R&R 0,228 0,28
Repetibilidade 0,228 0,28
Reprodutibilidade 0 0
Operador 0 0
Parte a Parte 81.267 99,72
Total Variação 81.495 100

MESA _ 9.5 Componentes de variância Análise

Var de estudo % Estudo % tolerância


Fonte StdDev (5,15*DP) Var (% SV) (SV/Tolera
nte)
Total calibrar R&R 0,47749 2.4591 5.29 6.15
Repetibilidade 0,47749 2.4591 5.29 6.15
Reprodutibilidade 0 0 0 0
Operador 0 0 0 0
Parte a Parte 9.0148 46.4262 99,86 116.07
Total variação 9.02743 46.4913 100 116,23
MESA _ 9.6 Análise de Spreads
Calibrar R&R
Nome do
exemplo medidor: Data
de estudar:
Reportado por:
Componentes de variação Tolerância:
Diversos:
120 % Contribuição
% Var de estudo
100 % Tolerância

80
Percent

60

40

20

0
Calibrar R&R
Repita a parte a parte
reprodução

F IGURA 9.13 análise gráfica de componentes de variação.

mostra o spread atribuível às diferentes fontes. A coluna StdDev é o padrão desvio


padrão, ou a raiz quadrada da coluna VarComp na Tabela 9.5. A variável de estudo
coluna shows o 99% confiança intervalo usando o StdDev. O % Estudar var coluna é o
Estudar var coluna dividido por o total variação devido para todos fontes. E o por-
centavo Tolerância é o Estudar var coluna dividido por o tolerância. Isto é interessante
que o por cento O total da coluna de tolerância é superior a 100%. Isso indica que a
medida a dispersão do processo excede a tolerância. Embora esta não seja uma análise
de capacidade do processo, o dados fazer indicar a possível problema reunião
tolerâncias. O Informação em Mesa 9.6 é apresentado graficamente na Fig. 9.13.

Linearidade
Linearidade pode ser determinado por escolhendo peças ou padrões que cobrir todos
ou maioria de o operativo faixa de o medição instrumento. Viés é determinado no
cada apontar em o faixa e uma análise de regressão linear é realizada.
Linearidade é definiram como o declive vezes o processo variância ou o declive
vezes o para mim- erância, qualquer que seja é maior. A espalhar diagrama deve
também ser traçado de o dados.

Linearidade Exemplo O seguindo exemplo é levado de Medição Sistemas Análise,


Publicados por o Automotivo Indústria Ação Grupo.
Um capataz de fábrica estava interessado em determinar a linearidade de uma
medição sistema. Cinco peças foram escolhidas em toda a faixa de operação da
medição sistema baseado na variação do processo. Cada peça foi medida por uma
inspeção de layout ção para determinar isso é referência valor. Cada papel era
então medido 12 vezes por a solteiro avaliador. O peças eram selecionado no
aleatório. O papel média e viés
F IGURA 9.14 Calibrar dados resumo.

as médias foram calculadas para cada peça conforme mostrado na Fig. 9.14. O viés da
peça foi calculado atrasado por subtraindo o papel referência valor de o papel média.
Uma análise de regressão linear foi realizada. Na regressão, x é a referência valor e
y é o viés. os resultados são mostrado na Fig. 9.15.
Os valores de P indicam que o resultado é estatisticamente significativo, ou seja, há
realmente aliado a viés em o calibrar. O declive de o linha é  0,132, e o interceptar é
0,74. R 2  0,98, indicando que o direto linha explica sobre 98% de o variação em o viés
leituras. O resultados podem ser resumidos da seguinte forma:

Viés b + machado  0:74  0,132 (Referência valor)


Linearidade |inclinação|  processo variação  0,132  6 
0,79, onde 6 é o tolerância
% Linearidade 100%  |inclinação|  13,2%

F IGURA 9.15 Análise de regressão de dados de resumo de linearidade.


Viés
1,0

0.74 - 0.132 (Ref. Value)


0,5

0,0
Ref. Valor
4 6 8 10

–0,5 Point of zero bias

–1,0
2

F IGURA 9.16 Gráfico análise de linearidade.

Observação que o viés zero o ponto é Encontrado em

 interceptar 
x  0,74 
      0,13 2   5 .61
 decli   
ve

Neste caso, este é o ponto de menor viés. Maior viés existe à medida que você
avança de este valor.
Esta informação é resumida graficamente na Fig. 9.16.

Linearidade Análise Usando MinitabName


O Minitab possui um recurso integrado para realizar análise de linearidade de
medição. A Figura 9.17 mostra o layout de dados e caixa de diálogo. A Figura 9.18
mostra o Saída do Minitab.
Observe que o Minitab não mostra os valores -P para a análise, portanto, é
necessário realizar uma análise de regressão suplementar de qualquer maneira para
determinar o significado estatístico significância dos resultados. Para este exemplo, é
óbvio a partir do gráfico de dispersão que o a inclinação da linha não é zero, portanto,
um valor P não é necessário para concluir que a não linearidade existe. Os resultados
não são tão claros quanto ao viés, que é de apenas 0,867%. De fato, se fizermos uma
teste t de uma amostra da hipótese de que o viés médio é 0, obtemos os resultados
mostrados em Figo. 9.19, que indicam que o viés pode ser 0 ( P  0,797). 

 Um problema com esta análise é que o dado para cada peça é uma média de 12 medições, não
medidas individuais. Se pudéssemos obter as 60 medições reais, o valor- P provavelmente seria
diferente porque o erro padrão seria baseado em 60 medições em vez de 5. No Por outro lado, as
medições individuais também seriam mais variáveis, de modo que a magnitude exata do diferença é
impossível determinar sem os dados brutos.
F IGURA 9.17 MinitabName calibrar linearidade diálogo caixa.

Nome do
Linearidade do medidor medidor: Data Calibrar
análise de estudar: linearidade 0,792
Reportado por: Linearidad
e:
Tolerância: % Linearidade: 13.200
Diversos: R ao quadrado: 0,978
Calibrar viés
0,5 Viés: –0,052
% Viés: 0,867

Por cento de
processo
Bias

0,0 variação
14
12
10
Percent

8
6
–0,5
4
2
2 3456 7 8 9 10 0
Viés de Linearidade
Mestre papel medição

F IGURA 9.18 MinitabName calibrar linearidade saída.

F IGURA 9.19 Teste t de uma amostra


de viés.
309
310 C h a p t e r Ni ne

Atributo Medição Erro Análise


Atributo dados consiste de classificações em vez de que Medidas. Atributo inspeção
envolve determinando o classificação de um item, para exemplo, é isto "bom" ou
"ruim"? O princípios de bom medição para atributo inspeção são o mesmo como para
medição inspeção (Mesa 9.7). Por isso, isto é possível para Avalie atributo medição
sistemas em

Medição Interpretação para


Sugerido Métricas e Comentários
Conceito Atributo Dados
Precisão Unid são Número de vezes corretamente
corretamente classificado por todos Número total
categorizado.
de avaliações por todos
Requer conhecimento de o "verdadeiro" valor
Viés A proporção de itens Proporção média geral em uma determinada
em um dado categoria categoria (por todos os inspetores) menos a
é correto. proporção correta em um determinado categoria.
média sobre todas as categorias.
Requer conhecimento de o "verdadeiro" valor.
Repetibilidade Quando um inspetor Para a dado inspetor:
avalia o mesmo item
Número total de vezes repita classicações
múltiplo vezes em a
curto tempo intervalo, concordar Número total de repita
ela atribui isto para o classificações
mesmo categoria todo
Geral: Média de repetibilidades
tempo.
Reprodutibilida quando tudo Número total de vezes classificações para todos
de inspetores Avalie o concordar Número total de classificação
mesmo item, eles
todos atribuir isto
para a mesma
categoria.
Estabilidade O variabilidade entre Métrica Estabilidade Medir para Métrica
atributo R&R estudos Repetibilidade Padrão desvio de
no diferente vezes. repetibilidades
Reprodutibilidade Padrão desvio de
reprodutibilidades
Precisão Padrão desvio de
precisões
Viés Média viés
Linearidade Quando um inspetor Faixa de imprecisão e viés entre todos categorias.
avalia Unid cobertura Requer conhecimento de o "verdadeiro" valor.
o completo definir de Nota: Como não há ordem natural para valores
categorias, dela nominais dados, o conceito de linearidade realmente
classificações são não tem preciso analógico para atributo dados sobre
consistente entre o esse escala. No entanto, as métricas sugeridas
categorias. destacarão as interações entre inspetores e
Measur ement Systems Evaluation 311
específico categorias.

MESA _ 9.7 Atributo Medição Conceitos


312 C h a p t e r Ni ne

muito o mesmo caminho como nós Avalie variável medição sistemas. Muito menos
trabalhar tem estive feito sobre avaliando atributo medição sistemas. O propostas
oferecido em esse livro são aqueles Eu tenho encontrado para ser útil para meu
empregadores e clientes. O Ideias são não papel de qualquer padrão e você são
encorajado para pensar sobre eles criticamente antes adoção eles. EU também incluir
um exemplo de do Minitab atributo calibrar R&R análise.

Operacional Definições
Um operacional definição é definiram como a requerimento que inclui a significa de
medir- mento. “Solda de alta qualidade” é um requisito que deve ser
operacionalizado por um definição de o que "alto qualidade solda" significa. Esse
poder incluir verbal descrições, poder de ampliação, fotografias, espécimes de
comparação física e muito mais critério.

Exemplos de Operacional Definições


1. Operacional definição de o Ozônio Transporte Avaliação do grupo (OTAG) meta
Meta: Para identificar reduções e recomendar transportado ozônio e isso é
pré- sores que, conjugados com outras medidas, permitirão atingir e
manutenção do padrão de ozônio no região OTAG.
Sugerido definição operacional do objetivo:
1. Uma redução geral modelada no ozônio e nos precursores de ozônio no
alto através de fora a região OTAG; e
2. A redução de ozônio e ozônio precursores ambos no alto e no chão nível no
os limites dos domínios de modelagem de área de não realização no OTAG
região; e
3. A minimização de aumenta em pico chão nível ozônio concentrações em o
OTAG região (Esse componente de o operacional definição é em análise.).
2. Wellesley College Child Care Policy Research Partnership definição
operacional ção de necessidade não atendida
1. Padrão de comparação para julgar a adequação dos serviços de vizinhança:
o mediana disponibilidade de serviços em o maior região (condado de
Hampden).
2. Assim, nossa definição de necessidade não atendida: a diferença entre os
cuidados disponíveis capaz no bairro e o nível mediano de atendimento no
entorno região (declarada em termos de vagas de creche indexadas à faixa
etária criança população—“slots-per-tots”).
3. Definições operacionais de ácidos e bases
1. Um ácido é qualquer substância que aumenta a concentração do íon H +

quando isto dissolve-se em água.


2. A base é qualquer substância que aumenta o concentração de o OH íon
quando isto dissolve-se em água.
4. Definição operacional de “inteligência”
1. Administre o teste de QI de Stanford-Binet a uma pessoa e marque o
resultado. O pessoas inteligência é a pontuação no teste.
5. Definição operacional de “tapete azul escuro”
Measur ement Systems Evaluation 313

A carpete será considerado azul escuro se

1. Julgado por um inspetor médico certificado como tendo passado os EUA Ar


Força teste para daltonismo
1.1. Isto partidas o PANTONE cor cartão 7462 C quando ambos tapete e
cartão são iluminado pelas lâmpadas fluorescentes “cool white” da GE;
1.2. Cartão e tapete são visto no a distância entre 16 e 24 polegadas.

Como para Conduta Atributo Inspeção Estudos


Alguns comumente usado abordagens para atributo inspeção análise são mostrando
em Mesa 9.8.

Exemplo de Atributo Inspeção Erro Análise


Duas folhas com padrões litografados idênticos devem ser inspecionadas
cuidadosamente condições controladas por cada um dos três inspetores. Cada folha
foi cuidadosamente examinados várias vezes por litógrafos jornaleiros e eles
determinaram que uma das folhas deve ser classificada como aceitável, a outra como
inaceitável. O inspetores sentar sobre a banco no a grande mesa onde o folha vai ser
montado para inspeção. O inspetor pode ajustar a altura do banquinho e o ângulo da
mesa. Pousou lupa é montada na mesa com um braço ajustável que permite ao
inspetor mova-o para qualquer parte do folha (ver Fig. 9.20).
Cada inspetor verifica cada folha uma vez pela manhã e novamente à tarde. Após
cada inspeção, o inspetor classifica a folha como aceitável ou não aceitável. Todo o
estudo é repetido na semana seguinte. Os resultados são mostrados em Mesa 9.9.
Em Mesa 9.9 o papel coluna identifica qual folha é ser inspecionado, e o stan- A
segunda coluna é a classificação da folha com base nas avaliações dos jornaleiros. A 1
indica que o folha é aceitável, a 0 que isto é inaceitável. O colunas rotulado InspA,
InspB e InspC mostram as classificações atribuídas pelos três inspetores
respectivamente. O reprodutível coluna é a 1 se todos três inspetores concordar sobre
o classifica- cação, estando sua classificação de acordo com a norma ou não. A col-
umn é 1 se todos os três inspetores classificarem a folha corretamente conforme
mostrado no padrão coluna.

Individual inspetor Precisão


A precisão individual do inspetor é determinada pela comparação da classificação de
cada inspetor. ção com o padrão. Para exemplo, em célula C2 de Mesa 9.9 inspetor A
classificado o unidade como aceitável, e o padrão coluna em o mesmo linha indica
que o classificação está correto. Porém, na célula C3 a unidade é classificada como
inaceitável quando na verdade é aceitável. continuando isso avaliação mostra aquele
inspetor A feito o correto avaliar- mento 7 fora de 8 vezes, para um precisão de 0,875
ou 87,5%. O resultados para todos inspetores são dado na Tabela 9.10.

Repetibilidade e Emparelhados Reprodutibilidade


Repetibilidade é definiram em Mesa 9.7 como o mesmo inspetor recebendo o mesmo
resultado quando avaliando o mesmo item mais que uma vez dentro de a curto tempo
intervalo. Olhando no InspA
314 C h a p t e r Ni ne

Verdadeiro Método de Avaliação Comentários


Valor
Opinião □ Métricas :
especializada : uma 1. Por cento correto
especialista visual no □ Quantifica o precisão de o classificações
o classificações
□ Simples para Avalie
depois o operador faz
normal classificações □ Quem diz o especialista é correto?
e decide qual são □ Cuidado deve ser levado para incluir todos os tipos
correto e quais são de atributos
incorreta. □ Difícil para comparar operadores desde diferente
unidades são classificado por diferente pessoas
□ Aceitável nível de desempenho deve ser decidiu
sobre. Considerar custo, impacto sobre clientes,
etc
Conhecido Redondo Robin □ Métricas :
Estudo : A definir de 1. Por cento correto por inspetor
com cuidado 2. inspetor repetibilidade
identificado objetos
3. inspetor reprodutibilidade
é escolhido para
representar o 4. Estabilidade
completo faixa de 5. inspetor “linearidade”
atributos. □ Completo faixa de atributos incluído
1. Cada item é □ Todos aspectos de medição erro quantificado
avaliado por um □ Pessoas saber eles estão ser assistido,
especialista e isso é poderia afetar desempenho
doença gravado. □ Não rotina condições
2. Cada item é □ Cuidado especial deve ser levado para garantir rigor
avaliado por todo
□ Aceitável nível de desempenho deve ser decidiu
inspetor no ao
sobre para cada tipo de erro. Considerar custo,
menos duas
impacto sobre clientes, etc
vezes.
□ Métricas:
1. inspetor repetibilidade
2. inspetor reprodutibilidade
3. Estabilidade
4. inspetor “linearidade”
inspetor □ Como uma rodada Robin, exceto verdade valor não
Concorrência é conhecido
Estudo : A definir de □ Não medidas de precisão ou viés são possível.
com cuidado Pode apenas medir acordo entre igualmente
identificado objetos qualificado pessoas
é escolhido para □ Completo faixa de atributos incluído
Desconheci representar o □ Pessoas saber eles estão ser assistido,
do completo faixa de poderia afetar desempenho
atributos, para o
□ Não rotina condições
extensão possível.
□ Cuidado especial deve ser levado para garantir rigor
1. Cada item é
avaliado por todo □ Aceitável nível de desempenho deve ser decidiu
inspetor no ao menos sobre para cada tipo de erro. Considerar custo,
duas vezes. impacto sobre clientes, etc
Measur ement Systems Evaluation 315
MESA _ 9.8 Métodos de Avaliação de atributo Inspeção
316 C h a p t e r Ni ne

F IGURA 9.20 Mesa de estação de inspeção de litografia, banquinho e lupa.

A B C D E F G H EU
1 Pape Padrão InspA InspB InspC Data Tempo Reprodutível Preciso
l
2 1 1 1 1 1 Hoje Manhã 1 1
3 1 1 0 1 1 Hoje Tarde 0 0
4 2 0 0 0 0 Hoje Manhã 1 1
5 2 0 0 0 1 Hoje Tarde 0 0
6 1 1 1 1 1 Dura Manhã 1 1
r
Sema
na
7 1 1 1 1 0 Dura Tarde 0 0
r
Sema
na
8 2 0 0 0 1 Dura Manhã 0 0
r
Sema
na
9 2 0 0 0 0 Dura Tarde 1 1
r
Sema
na

MESA _ 9.9 Resultados de Litografia Atributo Inspeção Estudar

inspetor A B C
Precisão 87,5% 100,0% 62,5%

MESA _ 9.10 inspetor Precisões


Measur ement Systems Evaluation 317
nós ver que quando ela avaliado Papel 1 em o manhã de "Hoje" ela classificado
isto como aceitável (1), mas em o tarde ela disse isto era inaceitável (0). O outro
três manhã tarde classificações coincide cada outro. Por isso, dela repetibilidade é
3/4 ou 75%.
318 C h a p t e r Ni ne

Geral Hoje Durar Semana


A B C A B C A B C
A 0,75 0,88 0,50 A 0,50 0,75 0,50 A 1,00 1,00 0,50
B 1,00 0,50 B 1,00 0,75 B 1,00 0,50
C 0,25 C 0,50 C 0,00

MESA _ 9.11 Repetibilidade e Emparelhados Reprodutibilidade para Ambos Dias Combinado

A reprodutibilidade par a par é a comparação de cada inspetor com todos os


outros inspetor ao verificar a mesma peça no mesmo horário no mesmo dia. Para a
prova- por favor, sobre Papel 1/Manhã/Hoje, InspA's classificação coincide que de
InspB. Como- sempre, para Papel 1/ Tarde /Hoje InspA's classificação era diferente
que que de InspB. Existem oito dessas comparações para cada par de inspetores. De
olho no InspA contra InspB nós ver que eles acordado 7 de o 8 vezes, para a
emparelhados repetibilidade de 7/8  0,875.
Na Tabela 9.11, os valores diagonais são as pontuações de repetibilidade e as fora
da diagonal elementos são as pontuações de reprodutibilidade par a par. Os
resultados são exibidos para "Hoje", "Durar Week” e ambos combinados.

Geral Repetibilidade, Reprodutibilidade, Precisão e Viés


As informações são sempre perdidas quando estatísticas resumidas são usadas, mas a
redução de dados muitas vezes faz o troca que vale a pena. O cálculos para o geral
Estatisticas são opera- cionalmente definido da seguinte forma:

 Repetibilidade é o média de o repetibilidade pontuações para o 2 dias


combinado; que é, (0,75 + 1,00 + 0,25)/3  0,67.
 Reprodutibilidade é o média de o reprodutibilidade pontuações para o 2 dias
com- binado (ver Tabela 9.9); aquilo é,

1010 100
1  2  0,50
 4 4 
 

 Precisão é o média de o precisão pontuações para o 2 dias combinado (ver


Mesa 9.9); aquilo é,
1000 100
0  2  0,25
 4 4 
 

 Viés é a proporção estimada em uma categoria menos a verdadeira proporção


na categoria. Neste exemplo, a verdadeira porcentagem defeituosa é de 50% (1
peça em 2). Do 24 avaliações, 12 avaliações classificaram o item como
defeituoso. Assim, o preconceito é 0,5 – 0,5  0

Geral Estabilidade
Estabilidade é calculado para cada de o acima Métricas separadamente, como
mostrando em Mesa 9.12.
Measur ement Systems Evaluation 319

Estabili
Estabilidade de... Operacional Definição de Estabilidade
dade
Resulta
do
Repetibilidade Padrão desvio de o seis repetibilidades (0,5, 1, 0,5, 1, 1, 1) 0,41
Reprodutibilidad Padrão desvio de o média repetibilidades. Para dados em 0,00
e Mesa 9.9, STDEV [(MÉDIA (H2:H5), MÉDIA (H6:H9)]
Precisão Padrão desvio de o média precisões. Para dados em 0,00
Mesa 9.9,  STDEV [MÉDIA (2:5), MÉDIA (6:9)]
Viés Média de viés sobre o 2 semanas 0,0

MESA _ 9.12 Análise de Estabilidade

Interpretação de Resultados
1. O sistema geral parece ser imparcial e preciso. No entanto, a avaliação ção de
Individual inspetores indicam que há sala para melhoria.
2. Os resultados da análise de precisão individual indicam que o inspetor C tem
um problema com precisão, consulte Tabela 9.10.
3. Os resultados do R&R (em pares) indicam que o inspetor C tem um problema
com ambos repetibilidade e reprodutibilidade, ver Mesa 9.11.
4. O repetibilidade números são não muito estábulo (Mesa 9.12). comparando o
diagnóstico elementos onais de Hoje com os da Semana Passada na Tabela
9.11, vemos que os inspetores A e C tendiam a obter resultados diferentes nas
diferentes semanas. Outro- sábio o sistema parece ser relativamente estável.
5. A reprodutibilidade dos inspetores A e B não é perfeita. Algum benefício
pode ser obtido de olhar para razões para o diferença.
6. Desde inspetor B's resultados são mais preciso e Repetivel, estudo dela poder
levar à descoberta de melhores práticas.

MinitabName Atributo Calibrar R&R Exemplo


MinitabName inclui a construídas em capacidade para analisar atributo medição
sistemas, conhecido como "atributo Medir R&R.” Nós vai repetir o análise acima
usando Minitab.
MinitabName não pode trabalhar com o dados como mostrando em Mesa 9.9, isto
deve ser reorganizado. Uma vez os dados estão em um formato aceitável para o
Minitab, entramos no Attribute Gage R&R Study diálogo caixa por escolhendo Estado
> Qualidade Ferramentas > Atributo Calibrar R&R Estudar (ver Figo. 9.21). Observe a
caixa de seleção "Categorias dos dados de atributo são ordenadas". Marque esta caixa
se o dados são ordinal e ter mais que dois níveis. Ordinal dados significa, para
exemplo, a 1 é em certo sentido, "maior" ou "melhor" do que 0. Por exemplo, se
perguntarmos aos avaliadores em um teste de degustação a pergunta como o
seguindo: "Avaliar o sabor como 0 (horrível), 1 (OK), ou 2 (delicioso)." Nosso os dados
são ordinais (aceitável é melhor que inaceitável), mas existem apenas dois níveis,
portanto, não marcaremos esta caixa.
MinitabName avalia o repetibilidade de avaliadores por examinando como
muitas vezes o avaliador “concorda consigo mesmo nas tentativas”. Ele faz isso
olhando para todos os classificações para cada peça e contando o número de peças
320 C h a p t e r Ni ne
onde todas as classificações acordado. Para o nosso exemplo, cada avaliador examinou
duas peças quatro vezes cada. do Minitab saída, mostrando em Figo. 9.22, indica
que InspA avaliado 50% de o peças consistentemente,
Measur ement Systems Evaluation 321

F IGURA 9.21 Atributo calibrar R&R diálogo caixa e dados disposição dentro de avaliador análise.

F IGURA 9.22 MinitabName dentro de avaliador avaliação acordo.

InspB 100% e InspC 0%. O intervalo de confiança de 95% na concordância percentual


é também mostrado. Os resultados são exibidos graficamente na Fig. 9.23.

Precisão Análise
O Minitab avalia a precisão observando com que frequência todas as classificações de
um avaliador para a dado papel concordar com o padrão. Figura 9.24 shows o
resultados para nosso exemplo. Como antes, MinitabName combina o resultados para
ambos dias. O trama de esses resultados é mostrando na Fig. 9.25.
MinitabName também visual no se ou não lá é a distinto padrão em o
desentendimentos com o padrão. Isto faz esse por contando o número de vezes o
avaliador classificado um item como a 1 quando o padrão disse isto era a 0 (o 1/0 Por
cento coluna), como muitas vezes o avaliador classificado um item como a 0 quando
isto era a 1 (o 0/1 Por cento coluna), e como muitas vezes o
Avaliação acordo Data de estudar:
Reportado por:
Nome do produto:
Avaliador vs Padrão Diversos:
100
[+, × ] 95,0% Cl
Por cento
Percent

50

0
InspA InspB InspC
Avaliador

F IGURA 9.23 Trama de dentro de avaliador avaliação acordo.

F IGURA 9.24 MinitabName avaliador contra padrão acordo.

Data de estudar:
Avaliação acordo Reportado por:
Nome do produto:
Avaliador vs Padrão Diversos:

100 [+,  ] 95,0% Cl


Por cento
Percent

50

0
InspA InspB InspC
Avaliador

F IGURA 9.25 Trama de avaliador contra padrão avaliação acordo.

318
Measur ement Systems Evaluation 319

F IGURA 9.26 MinitabName avaliador avaliação desacordo análise.

F IGURA 9.27 MinitabName entre avaliadores avaliação acordo.

F IGURA 9.28 MinitabName avaliação contra padrão acordo entre todos avaliadores.

avaliador classificações eram misturado, isto é, é não Repetivel (o # Misturado Por cento
coluna). O resultados são mostrando em Figo. 9.26. O resultados indicar que lá é não
consistente viés, definiram como consistentemente colocando a unidade em o mesmo
errado categoria. O problema, como era mostrando em o anterior análise, é que
avaliadores A e C são não Repetivel.

Entre Avaliador Avaliações


Próximo, MinitabName visual no todos de o avaliador avaliações para cada papel e
conta como muitas vezes cada avaliador concorda com a classificação da peça. Os
resultados, mostrados na Fig. 9.27, indicar que esse nunca ocorrido durante nosso
experimentar. O 95% confiança intervalo é também mostrando.

Todos Avaliadores contra Padrão


Por fim, o Minitab examina todas as avaliações do avaliador para cada peça e conta
como muitas vezes todo avaliador concorda sobre o classificação de o papel e deles
classificação concorda com o padrão. Esse não pode ser qualquer melhorar que o entre
avaliador avaliação concordar- mento mostrando em Figo. 9.27. Sem surpresa, o
resultados, mostrando em Figo. 9.28 , indicar que esse nunca ocorrido durante nosso
experimentar. O 95% confiança intervalo é também mostrando.
Esse página deixado intencionalmente em branco
CAPÍTULO 10
Analisar Estágio
A chave objetivos do A fase de análise inclui:
 Para existir processos, analisar o valor fluxo para identificar caminhos para
eliminar o espaço entre o desempenho atual e o desejado desempenho.
 Analisar o fontes de variação que contribuir para o brecha (para DMAIC) ou
que contribuirá para o projeto desempenho (para DMADV).
 Determine os direcionadores, os pequenos x 's que se correlacionam com os
requisitos do cliente (CTQ, CTS, CTC) e influenciam significativamente o
processo ou desenho.
 Usar avaliação comparativa técnicas descrito em Indivíduo. 3 para Avalie
melhor em aula para semelhante produtos ou serviços.

Valor Fluxo Análise


A valor fluxo consiste de todos Atividades, ambos valor adicionado e sem valor
adicionado, obrigatório para trazer a produtos de cru material em o mãos de o cliente,
a cliente requer- mento de ordem para entrega, e a projeto de conceito para lançar.
Valor fluxo melhorar- mento geralmente começa no o de porta em porta nível dentro de
a instalação, e então expande para fora eventualmente abranger o cheio fluxo de valor
(Womack e Jones, 1996, pág. 311). A valor fluxo consiste de produtos e serviço fluxos,
como bem como Informação fluxos.
Magro princípios são usado para analisar o valor fluxo. Magro, também conhecido
como o Magro Sistema de Produção, tem suas origens na era pós-Segunda Guerra
Mundial no Japão. Foi desenvolvido- operado por taichi Oh não, a Toyota Produção
executivo, em resposta para a número de pro- problemas que atormentavam a
indústria japonesa. O principal problema era o da alta variedade produção necessária
para atender o mercado doméstico japonês. Tecnologia de produção em massa niques,
que foram desenvolvidos por Henry Ford para produzir economicamente longas
séries de idêntico produtos, eram inadequado para o situação enfrentou por Toyota.
Hoje o condições enfrentados pela Toyota no final da década de 1940 são comuns em
toda a indústria e o Lean está sendo adotado por empresas em todo o mundo como
forma de melhorar a eficiência e servir os clientes.
A abordagem Lean (o termo Lean foi cunhado no início de 1990 pela pesquisa do
MIT- ers) sistematicamente minimiza lixo—chamado muda —em o valor fluxo. muda
inclui todos tipos de defeituoso trabalhar, não apenas defeituoso produtos.
Desperdiçado tempo, movimento, e amigo- rials são todos muda . Ohno (1988)
identificou os seguintes tipos de muda Em negócios:

1. Defeitos
2. Superprodução
3. Os inventários (em processo ou finalizado bens)

321
322 Cha pte r T e n

4. Desnecessário em processamento
5. Circulação desnecessária de pessoas
6. Transporte desnecessário de mercadorias
7. Esperando
Womack e jones (1996) adicionado outro tipo de mudança :
8. Projetar bens e serviços que não atendem às necessidades dos clientes

Valor é o que clientes querer ou precisar, e são disposto e capaz para pagar para.
Desperdício é qualquer atividade que consome recursos, mas não cria valor para o
cliente, portanto, desperdício atividades são chamadas de “sem valor agregado”.
Diferenciar entre os dois pode não ser fácil, especialmente para novo produtos ou
Serviços, mas isto deve ser feito. Para existir produtos usar foco grupos, pesquisas, e
outro métodos descrito em esse texto. Para novo produtos, considerar o DFSS
métodos. Maioria importante, FAZER NÃO CONFIAR SOBRE INTERNO FONTES! A
maioria das empresas começa com o que já sabe e parte daí, ajustando sua oferta
existente de alguma forma. A entrada do cliente envolve perguntar avaliam o que
gostam ou não na oferta existente ou o que gostariam de ver adicionado ou alterado.
O resultado é uma mudança incremental que pode ou não abordar o que o clientes são
realmente depois. O definição de valor deve começar com o produtor e cliente
analisando valor em conjunto e desafiando velhas crenças.
Considere uma equipe com a tarefa de reduzir defeitos em gôndolas de
supermercado. O número um problema era "soldar dentes,” a doença causado quando
colchetes eram soldado para o prateleiras. A ótimo negócio de esforço foi em
inspecionando prateleiras para esse doença, correr- testes de laboratório para
determinar o impacto dos dentes de solda na durabilidade do prateleiras,
retrabalhando prateleiras que tinham mossas de solda, etc. Os custos da sucata eram
muito altos. Quando a equipe se reuniu com os clientes para tentar definir
operacionalmente mossas de solda inaceitáveis eles fizeram uma descoberta incrível:
os clientes não sabiam o que eram mossas de solda! Até mais estranho, quando
mostrando prateleiras com não soldar amolgadelas e aqueles com "extremo" soldar
amassados, clientes não poderia Cuidado menos. No entanto, clientes fez Cuidado
sobre o forma de o frente de o prateleiras. Eles desejado legal, direto olhando
prateleira frentes que visto fluxo- alinhados quando alinhados em longos corredores
de supermercados. Eles não estavam nada felizes com o que estava sendo entregue.
Ninguém dentro da empresa sabia que isso era importante para os clientes. tomers, e
sem esforços estavam em andamento melhorar este aspecto do produtos.
Se o gerente do supermercado fosse solicitado a definir valor, é provável que ele
não o fizesse. diga "Prateleiras com frentes retas que se alinham". Em vez disso, ele
pode dizer “Prateleiras que olhar bom para meu clientes quando eles olhar abaixo o
corredor." O importância de obtivermos- ouvir a voz do cliente e usar essa voz para
conduzir os processos de negócios foi discutido nos Caps. 2 e 3. Essas lições vitais do
Seis Sigma precisam ser integradas Magro como bem.
Com seu definição de valor em mão, você pode agora começar para Avalie qual
ativ- vínculos agregam valor e quais atividades são muda . Os resultados costumam
ser surpreendentes. Em alguns casos maioria Atividades são não valor adicionado.
Para exemplo, um Seis Sigma equipe trabalhando sobre melhorando comprar ordem
(PO) ciclo tempo (definiram como o tempo de recebendo a solicitar para a PO para o
tempo o solicitante recebido o PO) conduzido a pequeno teste. Eles feito a lista de
todos o pessoas cujo assinatura era necessário para PO aprovação. Então o equipe
mem- bers (com o aprovação de o diretor de comprando) carregado na mão 10 POs
Analyze Phase 323
através o processo. Cada comprando agente era para tratar o equipe membros
solicitar como deles número 1 prioridade, caindo todo outro atividade até isto era
concluído. O equipe descoberto que
324 Cha pte r T e n

isto pegou um média de sobre 6 horas para processo a PO. O média em processamento
tempo em o real mundo era 6 semanas. assumindo a 40 horas semana de trabalho, o
valor adicionado tempo contabilizado por apenas 2,5% do tempo total que um PO
esteve no sistema. Os 97,5% restantes foram muda . Mesmo isso não é toda a extensão do
muda . Durante as caminhadas, a equipe também começou para pergunta por que
alguns de o aprovações eram necessário. Em alguns casos, tal como POs para padrão
hardware ou básico suprimentos, o solicitante poderia ser empoderado para lugar o
ordem. Muitos POs poderia ser eliminado completamente com automático puxar
encomenda sistemas (ver Indivíduo. 11 para mais sobre puxar sistemas). O valor
adicionado parte de o comprar ordem
aprovação processo era pequeno de fato.
O impacto imediato de tais descobertas é o medo. Imagine-se como o diretor de
compras ou um agente de compras. Junto vem uma equipe com dados que indicam
que a maior parte do seu departamento não agrega valor. É de se admirar que os
agentes de mudança sejam tão muitas vezes falar sobre "resistência para mudar"?
Quem não iria resistir mudar quando que mudar você está perdendo seu emprego?
No entanto, este é frequentemente o caso e a liderança precisa enfrentar esse realidade
e para plano para isto. Eles ter a responsabilidade para o acionistas que dita que
reduzam o muda . Eles têm a responsabilidade de produzir valor para os clientes. Mas
eles também ter a responsabilidade para o funcionários para tratar eles com justiça. A
menos que todos o liderar- ership faz isto claro que justo tratamento é garantido, você
pode esperar forte resistência de pessoas ameaçadas pela mudança.
O departamento de compras precisa repensar o valor que agregam, ou seja, o seu
mis- sion. Se o trabalho deles não é embaralhar papéis burocráticos, então o que é?
Talvez seja melhor definido como a melhoria da integração da cadeia de
abastecimento com o resto do valor fluxo (consulte a seção a seguir para uma
discussão sobre o fluxo de valor). isso pode envolver olhando no como fornecedores
pode ajuda projeto mais fácil de produzir peças, como eles pode entregar exatamente
no lugar certo e na hora certa, o que eles podem fazer para ajudar seus clientes a terem
sucesso, etc. Isso é mais fácil de fazer na empresa de processo, onde os principais
processos de negócios controlam a definição do trabalho (consulte o Capítulo 2). No
final o transformado “comprando departamento" vai provavelmente olhar muito
diferente que isto fez no o início. Mas se as pessoas sentirem que a administração
tratou a todos de forma justa, as chances são moral vai melhorar mesmo enquanto
muda é eliminado. Depois tudo, quem quer ser muda ?
O bom notícias é que quando Magro organizações redefinir valor, eles muitas
vezes encontrar que eles ter descoberto o chave para encontrando mais clientes (e
mais vendas) muito rapidamente. O aumento da demanda muitas vezes supera a taxa
na qual os recursos são convertidos de muda para valor criação. Embora esse não é
garantido, isto acontece muitas vezes suficiente para pró- vide a medir de conforto
para funcionários, especialmente se eles ver isto acontecendo em deles ter
organização. Eles ainda podem precisar adquirir novas habilidades para fazer um tipo
diferente de trabalho, mas eles geralmente são capazes de se adaptar a isso.
Ao tentar identificar o muda, pode ser útil pensar em certas categorias de
desperdício. Um prático mnemônico é CLOSEDMITTS (Spencer, 1999) (Mesa 10.1).

Valor Fluxo Mapeamento


O mapeamento do fluxo de valor, também conhecido como mapeamento do fluxo de
materiais e informações, é um variação de processo mapeamento que visual no como
valor flui em e através a processo e para o cliente, e como o fluxo de informações
facilita o fluxo de trabalho. Uma maneira de visualizar um processo é o fluxo lógico
Analyze Phase 325
do trabalho. Outra visão é o fluxo físico do trabalho. A Figura 10.1 mostra o fluxo
lógico de trabalho para um processo de suporte técnico. O time determinou que as
etapas de valor agregado eram aquelas mostradas com uma caixa de sombreamento.
O processo mapa faz isto óbvio que o volume de o trabalhar em o processo é não
papel de
326 Cha pte r T e n

Tipo de Lixo Exemplo


Complexidade Desnecessário passos, excessivo documentação, também muitos
permissões necessário
Trabalho Ineficiente operações, excesso quadro de funcionários
Superprodução Produzindo mais que o cliente demandas. Produzindo antes o
cliente precisa isto
Espaço Armazenar para inventário, peças aguardando disposição, peças
aguardando retrabalho e sucatear armazenar. Excessivamente largo
corredores. Outro desperdiçado espaço
Energia Desperdiçado poder ou humano energia
Defeitos Reparar, retrabalho, repetido serviço, múltiplo chamadas para resolver
problemas
Materiais Sucatear, encomenda mais que é necessário
Parado materiais Material que apenas senta, inventário
Tempo Desperdício de tempo
Transporte Movimento que acrescenta não valor
Segurança perigos Inseguro ou propenso a acidentes ambientes

MESA _ 10.1 CLOSEDMITTS

2725 27251363
Acesso macs e verdadeiro
procurar para Modificar Procurar para e
do cliente ?modificar informações do pedido
info/verificar/modificar
Ordem modificação pedido 40s 5s 55s falsos
545 verdadeiro
13 63
5450 5450
E-mail Abrir E-mail Modificar ordem entrar
pedido e ler e/ou cliente informações? comentários em
resposta MACS
0s
17s Não MACS
5s Falso 31s

5450 2725
1363
2725
Busca Verdadeira
Pesquisar
solução? IBIS/SNIPPET 272 Verdadeiro Copie e cole trecho
banco Abrir em branco
tecnologia modelo em TECS e
de e-mail Acesso personalizar resposta
22s
apoiar
5s Falso 5450 5s fragmento banco
2725
Select 1362 59s
é
pré-formatados False
modelo pré-formatado 0s manual de tipo falso
resposta em TECS
disponível? modelo e
personalizar e customizar
resposta
5s Verdadeiro 55s
13 1s

5450 545054505450
Cpoy & colar 5450
Digite a resposta em das faixas novamente
comentários em Word/Executar Web prévia Fim
e enviar e-mail
verificação ortográfica/cópia TECS &
colar voltar em TECS 0s

23s 28s18s23s

F IGURA 10.1 fluxo de trabalho por e-mail técnico apoiar.


Analyze Phase 327

o valor fluxo, isso é muda . Baseado sobre o vezes mostrando para cada atividade e o
caminho para um determinado problema de suporte, algo entre 38 e 49% do tempo
total é usado para atividades de valor agregado.
Infelizmente, em muitos casos, todas as etapas sem valor agregado não podem ser
imediatas. imediatamente eliminado. As etapas desnecessárias e sem valor agregado
que podem ser eliminadas sem consequência para o negócios ou o cliente são às vezes
referido para como Tipo II muda . A alguns de o passos envolver gravação Informação
que pode ser usado em o futuro para fazer isto mais rápido e mais fácil para encontrar
o certo respostas. Esse é um exemplo de a sem valor tarefa adicional que se faz
necessária, com base nas políticas internas. Às vezes referido como tarefas de valor
agregado de negócios (BVA), uma vez que podem ser justificadas como necessárias
para os negócios operações de segurança, essas tarefas não podem ser eliminadas
imediatamente sem consequências. Outro exemplos de típica BVA Atividades incluir
maioria qualidade funções, tal como inspecionar ções, auditorias e SPC, bem como
aprovações de gestão relacionadas. Estas funções apenas existem devido a níveis de
qualidade baixos: os clientes não estariam dispostos a pagar por eles se eles tinham
fornecedores alternativos que podiam garantir a qualidade perfeita sem o custo e risco
dessas atividades. Em alguns casos, as atividades da BVA estão relacionadas a
regulamentações, como em o Produção de produtos farmacêuticos. Nesses casos, no
ao menos alguns o BVA Atividades podem ser reduzidos quando justificados como
desnecessários por análise suficiente. Muitas vezes, BVA atividades são excelentes
alvos para redução significativa de custos através da melhoria do processo mento e
redesenhar. De curso, em o ausência de processo melhoria e processo rede- sinal, a
necessidade do negócio ainda existe.

Como Fazer Nós Fazer Valor Fluxo?


A chave para o fluxo de valor são os requisitos do cliente. O que o cliente precisa e
quando ele precisa, impulsiona todas as atividades. Esse conceito costuma ser
chamado de Takt time . A fórmula para Takt time é mostrado na Eq. (10.1).

disponível trabalhar
Takt tempo =
tempo
cliente obrigatório volume (10.1)

Trabalhar tempo faz não incluir almoços, rompe, ou outro processo tempo de
inatividade. Geralmente,
Takt tempo é usado para criar curto prazo (diário, semanalmente) trabalhar horários.

Exemplo de Takt Tempo Cálculo


A satélite fabricante recebe pedidos para 26 satélites por ano.
26 satélites
Takt tempo = =1
satélite todo 10 dias (10.2) 260 trabalhar dias/ano

Isso significa que cada célula de trabalho e operação tem que mover o valor de um
sistema de trabalhe a cada 10 dias de trabalho, nem menos nem mais. Por exemplo, se
uma média satélite requer 10 baterias, então a operação da bateria precisa produzir
uma bateria por dia de trabalho, se um satélite precisa de 1.000 placas de circuito,
então 100 placas precisam ser com- preenchido todos os dias de trabalho.
Se a média histórica do processo for de 20 satélites por ano, então o tempo para
produzir um satélite é de 13 dias úteis, substancialmente aquém do Takt time de 10
dias. Neste caso, esforços precisar para foco sobre melhorando ciclo tempo. Sobre o
outro mão, se o histórico média é 30 satélites por ano, então Produção tempo é apenas
328 Cha pte r T e n
8.67 dias por satélite e foco deve ser sobre aumentando vendas e reduzindo recursos
para o nível ditado por cliente demanda.
Analyze Phase 329

Before Lean After Lean

F IGURA 10.2 Gráfico de espaguete versus Lean fluxo.

Espaguete Gráficos
Atual estado físico fluxo de trabalho é muitas vezes retratado em gráficos de espaguete .
A gráfico de espaguete é a mapa de o caminho levado por a específico produtos como
isto viagens abaixo o valor fluxo em a produção em massa organização, assim
chamado porque o produtos rota tipicamente visual como a placa de espaguete. Para
criar a espaguete gráfico, como o um mostrando sobre o esquerda em Figo. 10.2, diga
a uma pessoa para “ser a parte” e caminhar fisicamente pelo processo como a parte
passaria por isso. Às vezes, uma peça viaja quilômetros na configuração original do
processo. ção, e apenas alguns metros no layout Lean. O layout Lean é mostrado à
direita em Figo. 10.2. O diferença Entre o atual estado layout e o Magro layout é muda
.
Ao estabelecer metas para um processo de estado futuro, muitas vezes é útil
expandir a mente. Uma maneira de se inspirar é identificar o melhor desempenho
absoluto da classe para um especial atividade. Para exemplo, o rápido lubrificante
juntas' alegar para excepcional valor é que eles pode pegar você em e fora em 15
minutos ou menos, muito mais rápido que o canto "serviço estação" qual muitas vezes
pegou a casal de horas ou mais. Mas considerar o poço equipe de a Nascar equipe de
corrida, que pode realizar manutenção em um carro tão rápido (14 segundos ou
menos) que faça com que seu Quickie Lube local pareça estar trabalhando em um
rastreamento. E durante aqueles 14 segundos eles fazer a ótimo negócio mais que
mudar o carro de fluidos. Eles gás isto acima, lavar o janelas, mudar todos de o pneus,
etc. (Figo. 10.3). Lá são muitos Publicados exemplos de Magro conquistas que pode
servir para educar e inspirar. No o CAMI fábrica operado por GM e Suzuki, máquina
mudança tempo era reduzido de 36 horas para 6 minutos.

Analisando o Fontes de Variação


Se o foco de o Seis Sigma projeto relaciona diretamente para o mecânica de o valor
fluxo, como tempo de ciclo e alocação de recursos relacionados a custo/capacidade, ou
indiretamente, como na qualidade relativa de sua saída, uma parte crítica da análise é
a compreensão análise das contribuições relativas das fontes de variação que
330 Cha pte r T e n
impactam o fluxo de valor. Uma revisão do gráfico de controle estatístico construído
na fase de Medição fornecerá entrada como para o tipo de variação: comum causa
intrínseco para o processo ou especial causas
Analyze Phase 331

F IGURA 10.3 UPS corrida equipe poço equipe.

que ocorrem esporadicamente em condições específicas. Conforme discutido no


estágio de Medição, o resposta para cada um de esses tipos de variação difere
significativamente.
As fontes potenciais de variação do processo podem ser discutidas pelo Seis
Sigma equipe usando um diagrama de causa e efeito. Essas causas potenciais devem
então ser analisadas por sua significância usando ferramentas estatísticas mais
avançadas, incluindo experiências projetadas mentos e seus métodos enumerativos
associados.
Os métodos estatísticos básicos, incluindo intervalos de confiança e testes de
hipóteses, são discutidos nas seções a seguir. Embora esses métodos estatísticos
bastante simples pode ser usado para comparar diretamente uma amostra com suas
propriedades desejadas, ou uma amostra para outro, projetado experimentos vai
construir sobre esses conceitos em aplicando ANOVA (anal- ysis of variance) técnicas
para múltiplas fontes de variação, permitindo a quantificação de o relativo
contribuição de cada fonte para o total erro. Em geral regressão e corre- A análise da
lação é apresentada como um precursor dos experimentos planejados, para auxiliar no
compreensão das técnicas de análise experimental.

Causa e Efeito Diagramas


Na maioria das aplicações práticas, o número de causas possíveis para qualquer
problema pode ser enorme. dr. Kaoru Ishikawa desenvolvido a simples método de
graficamente exibindo as causas de qualquer problema de qualidade. Seu método é
chamado por vários nomes, o Ishikawa diagrama, o diagrama de espinha de peixe e a
causa e diagrama de efeito.
Diagramas de causa e efeito são ferramentas usadas para organizar e representar
graficamente jogar todos os conhecer um grupo tem relação com um determinado
problema.
Construindo o causa e efeito diagrama é muito simples. O passos são:
332 Cha pte r T e n
1. Desenhe uma caixa no lado direito de uma grande folha de papel e desenhe
um horizontal seta que pontos para o caixa. Dentro de o caixa, escrever o
descrição de o problema que você está tentando resolver.
Analyze Phase 333

2. Escrever o nomes de o categorias acima e abaixo o horizontal linha. Pensar de


esses como ramos do tronco principal da árvore.
3. Desenhe os dados de causa detalhados para cada categoria. Pense nisso como
membros e galhos nos galhos.
Um bom diagrama de causa e efeito terá muitos “galhos”, conforme mostrado na
Fig. 10.4. Se seu causa e efeito diagrama não ter a muito de menor galhos e galhos, isto
shows que o entendimento de o problema é superficial. chances são que você precisar
o ajuda de alguém fora do seu grupo para ajudar no entendimento, talvez alguém
mais de perto associados ao problema.
Causa e efeito diagramas vir em diversos básico tipos. O dispersão análise tipo é
criado perguntando repetidamente “por que essa dispersão ocorre?” Por exemplo, nós
poder querer saber por que tudo de nosso fresco pêssegos não tenha o mesmo cor.
O Produção processo aula causa e efeito diagrama usa Produção processos como o
principal categorias, ou galhos de o diagrama. O processos são mostrando ingressou
por o horizontal linha. A Figura 10.5 é um exemplo desse tipo de diagrama.
O causa enumeração causa e efeito diagrama simplesmente exibe todos possível
causas de um dado problema agrupado de acordo com categorias racionais. Este tipo
de causa e efeito diagrama presta-se facilmente para o abordagem de brainstorming
nós estão usando.
A variação de o básico causa e efeito diagrama, desenvolvido por dr. Ryuji
Fukuda de Japão, são diagramas de causa e efeito com a adição de cartas, ou CEDAC.
O principal diferença é que o grupo reúne Ideias fora de o reunião sala sobre pequeno
cartas, como como em reuniões de grupo. Os cartões também servem como um
veículo para coletar informações de pessoas que não estão no grupo; eles podem ser
distribuídos para qualquer pessoa envolvida com o processo. Freqüentemente, os
cartões fornecem mais informações do que as breves entradas em um padrão
diagrama de causa e efeito. O diagrama de causa e efeito é construído colocando na
verdade o cartões nos galhos.

Boxplots
Um boxplot exibe estatísticas resumidas para um conjunto de distribuições. É uma
trama do século 25, 50º, e 75º percentis, também como valores longe de o resto.
Figura 10.6 shows um anotado esboço de a boxplot. O mais baixo limite de o caixa
é o percentil 25. Tukey refere-se às “dobradiças” dos percentis 25 e 75. Observe que o
50º percentil é o mediana de o geral dados definir, o dia 25 percentil é o mediana de
aqueles valores abaixo o mediana, e o 75º percentil é o mediana de aqueles valores
acima da mediana. A linha horizontal dentro da caixa representa a mediana.
Cinquenta por- cento dos casos estão incluídos dentro da caixa. O comprimento da
caixa corresponde ao inter- quartil gama, que é o diferença entre o 25 e percentis 75.
O boxplot inclui duas categorias de casos com valores periféricos. Casos com val-
ues que são mais que 3 comprimentos de caixa de o superior ou mais baixo borda de o
caixa são chamado Valores extremos. No boxplot, eles são designados com um
asterisco (  ). Casos com valores que estão entre 1,5 e 3 comprimentos de caixa da
borda superior ou inferior da caixa são chamados de outliers e são designados com
um círculo. O maior e o menor observado valores que não são outliers também são
mostrados. Linhas são desenhadas das extremidades da caixa até esses valores. (Essas
linhas às vezes são chamadas de bigodes e o enredo é então chamado de enredo de
caixa e bigodes.)
Apesar de sua simplicidade, o boxplot contém uma quantidade impressionante de
informações. De a mediana você pode determinar o centro tendência ou localização.
334 Cha pte r T e n
Do comprimento
PROCESSO CONJUNTO
Altura PRÉ-
baixa defletor doença AQUECIME
NTO
SOLDA Temp. variando Armazenar
Temp. alto CONTAMINAÇÃO DA
Cabeça desigual
ACENO Contaminado Inconsistente PLACA Soldabilidade
Solda conta.
Excessivo ajustamento Manuseio Contaminado
FLUXO
Aceno desigual
Excessivo cabeça baixa COMPONENTES
Alto
TRANSPORT soprar Substituição intervalo
Plugue instalação Liderar corte & agarrar
ADOR desligado Não ativo Seleção Instalação
VELOCID
ADE
Inconsistente
circuitos também BOARD MÁSCARAS
fechar para lábio chaveta orientação Fita aplicativo
FIXTURE
Localização em placa Direção entre aceno No
multi estágio flutuante solder
dispositivo sobre aceno in hole
elétrico Chão plantar
deforma
Oxidado do

QUADRO Peso distribuição


QUADRO
Contaminado
Forma Tamanho razão
Aquecer
registro incorreto
afundar FURO/CONDUÇÃO
FURO/PAD Localização

Revesti MASC Plugue


mento ARAR forma
Furar esfregaço
montar localização
329

PROJETO DE FABRICAÇÃO
336 C h a Fp IGURA
t e r 10.4
T e n Causa e efeito diagrama.
330 Cha pte r T e n

Causa A
Causa A
Subcausa
Causa B

Process Process Problem


Causa A
Causar
Causa C Causa B Causa B
um Causa C
Subcausa Causa D

F IGURA 10.5 Produção processo aula causa e efeito diagrama.

Valores com mais de 3 comprimentos


de caixa acima o 75º percentil
(extremos)

Valores com mais de 1,5


comprimentos de caixa acima o 75º
percentil (outliers)

maior observado valoriza isso não é um outlier

75º percentil

Mediana (50º percentil)

dia 25 percentil

menor observado valor que não é um ponto fora

da curva valores mais que 1,5 comprimentos de

caixa
abaixo o percentil 25 (outliers)
F IGURA 10.6 anotado boxplot.
Valores com mais de 3 comprimentos
de caixa abaixo o dia 25 percentil
(extremos)

da caixa, você pode determinar a dispersão, ou variabilidade, de suas observações. Se


o mediana não está no centro da caixa, você sabe que os valores observados estão
distorcidos. Se a mediana estiver mais próxima da parte inferior da caixa do que da
parte superior, os dados são positivamente enviesado. Se a mediana estiver mais
próxima do topo da caixa do que da base, o oposto é verdadeiro: a distribuição é
assimétrica negativa. O comprimento da cauda é mostrado pelo indicador kers e os
Analyze Phase 331
pontos periféricos e extremos.
332 Cha pte r T e n

60000

50000

40000

30000

20000

10000

0
N= 22713627413256
Cle Office Security College Exempt MBA Tech
rica trainee officer trainee employee trainee nical
l

Emprego categoria

F IGURA 10.7 Boxplots de salário por trabalho categoria.

Boxplots são particularmente úteis para comparar a distribuição de valores em


vários grupos. Figura 10.7 mostra boxplots para os salários para vários diferentes
trabalho títulos.
O boxplot facilita a visualização das diferentes propriedades das distribuições. O
localização, variabilidade, e formas de o distribuições são óbvio no a olhar. Esse
facilidade de interpretação é algo que as estatísticas sozinhas não podem fornecer.

estatístico Inferência
Esta seção discute o conceito básico de inferência estatística. O leitor também deve
consulte o glossário no Apêndice para obter informações adicionais. Estatística
inferencial pertencem à classe enumerativa dos métodos estatísticos. Todas as
declarações feitas nesta seção ção são válido apenas para estábulo processos, que é,
processos em estatístico ao controle. Embora maioria formulários de Seis Sigma são
analítico, lá são vezes quando enumerativo Estatisticas provar útil. O termo inferência
é definido como (1) o ato ou processo de derivar conclusões de premissas conhecidas
ou assumidas como verdadeiras, ou (2) o ato de raciocinar de conhecimento factual ou
evidência. A estatística inferencial fornece informações que são usado em o processo
de inferência. Como pode ser visto de o definições, inferência envolve dois domínios:
as premissas e a evidência ou conhecimento factual. Além disso, há Existem duas
estruturas conceituais para abordar questões de premissas em inferência: o baseado
em design abordagem baseada em modelos.
Como discutido por Koch e Gillings (1983), a estatístico análise cujo apenas
presumir- ções são aleatório seleção de unidades ou aleatório alocação de unidades
para experimental condi- ções resultados em baseado em design inferências ; ou,
equivalentemente, baseado em randomização inferências. O objetivo é para estrutura
amostragem tal que o amostrado população tem o mesmo
Analyze Phase 333

características como o alvo população. Se esse é realizado então inferências de o


amostra tem validade interna. Uma limitação em inferências baseadas em design para
experimental estudos é que formal conclusões são restrito para o finito população de
sujeitos que de fato receberam tratamento, ou seja, carecem de validade externa . No
entanto, se sites e assuntos são selecionados aleatoriamente de conjuntos elegíveis
maiores, então modelos com efeitos aleatórios fornecem uma maneira possível de
lidar com problemas internos e externos. considerações de validade. Uma
consideração importante para a validade externa é que o a cobertura da amostra inclui
todas as subpopulações relevantes; outra é que o tratamento difere diferenças sejam
homogêneas entre as subpopulações. Uma aplicação comum de design baseado em
inferência é a pesquisa.
Alternativamente, se as suposições externas ao desenho do estudo forem
necessárias para estender inferências para a população-alvo, em seguida, análises
estatísticas com base em problemas postulados formas de distribuição de habilidade
(por exemplo, binomial, normal, etc.) ou outros processos estocásticos produzir
inferências baseadas em modelo . Um foco de distinção entre design baseado e
modelagem estudos baseados é a população para a qual os resultados são
generalizados, em vez do natureza de o estatístico métodos aplicado. Quando usando
a baseado em modelo abordagem, externo validade requer substantivo justificação
para o do modelo premissas, como bem como estatis- avaliação técnica dos
pressupostos.
estatístico inferência é usado para fornecer probabilístico declarações a respeito de
a científico inferência. A ciência tenta fornecer respostas a perguntas básicas, como
isso pode máquina atende aos nossos requisitos? A qualidade deste lote está dentro
dos termos de nosso con- trato? O novo método de processamento produz melhores
resultados do que o antigo? Esses questões são respondidas por conduzindo um
experimentar, qual produz dados. Se o dados variam, então a inferência estatística é
necessária para interpretar as respostas às perguntas posou. Um modelo estatístico é
desenvolvido para descrever a estrutura probabilística relacionando o observado
dados para o quantidade de interesse (o parâmetros ), que é, a científico hipo- tese é
formulada. As regras são aplicadas aos dados e a hipótese científica é rejeitado ou não.
Em formal testes de a hipótese, lá são geralmente dois mutuamente exclusivo e
hipóteses exaustivas formuladas: uma hipótese nula e hipótese alternativa .

qui-quadrado, estudante T , e F distribuições


Além das distribuições presentes anteriormente na fase de medição, essas três
distribuições botões são usados no Seis Sigma para testar hipóteses, construir
intervalos de confiança e calcular limites de controle.

qui-quadrado
Muitas características encontradas no Seis Sigma têm características normais ou
aproximadamente normais. distribuições. Pode-se mostrar que, nesses casos, a
distribuição das variáveis amostrais nces tem a forma (exceto por uma constante) de
uma distribuição qui-quadrada, simbolizada por  2 . Tabelas ter estive construído
dando abscissa valores para selecionado ordenadas de o cumu- lativo  2 distribuição.
Uma dessas tabelas é dada em Apêndice 4.
O  2 distribuição varia com o quantidade  , qual para nosso propósitos é igual
para o amostra tamanho menos 1. Para cada valor de  lá é a diferente  2 distribuição.
Equação (10.3) dá o pdf para o  2 .
  2 ) / 2  
f (  2)  e   2/ 2
(  2) (
334 Cha pte r T e n
(10.3)

2  /2  2
 2  !
Analyze Phase 335

0,20

0,15

f (x)

0,10

0,05

0,00
0 246810
y 2

F IGURA 10.8  2 pdf para  = 4.

Figura 10.8 shows o pdf para   4.

Exemplo
O uso de  2 é ilustrado neste exemplo para encontrar a probabilidade de que a
variância de um amostra de n itens de um universo normal especificado será igual ou
superior a um determinado valor s 2 ; calculamos  2  ( n −1) s 2 /  2 . Agora, vamos
supor que amostramos n = 10 itens de um processo com  2  25 e desejar para
determinar o probabilidade que o amostra variância vai exceder 50. Então

( n  1) s 2 9(50)
 25  18
2

Nós digitar Apêndice 4 (  2 ) no o linha para   10 − 1  9 e observação que 18 cai


entre o colunas para o percentagem pontos de 0,025 e 0,05. Por isso, o probabilidade
de recebendo uma variação de amostra superior a 50 é de cerca de 3%.
Também é possível determinar a variância da amostra que seria excedida apenas
um afirmou percentagem de o tempo. Para exemplo, nós poder querer para ser
alertado quando o sam- por favor variância excedido a valor que deve ocorrer apenas
uma vez em 100 vezes. Então nós definir acima a equação  2 , encontre o valor crítico
do Apêndice 4 e resolva para a variação da amostra ance. Usando o mesmo valores
como acima, o valor de s 2 que seria ser excedido apenas uma vez em 100 vezes é
encontrado da seguinte forma:
9s 2 _ 9s 2 _ 21.7  25
  21.7  s 2   60.278
2 25 9

Em outro palavras, o variância de amostras de tamanho 10, levado de esse


processo, deve ser inferior a 60,278, 99% das vezes.

Exemplo de qui-quadrado Probabilidade cálculos Usando Microsoft excel


O Microsoft Excel possui um recurso interno para calcular probabilidades de qui-
quadrado. Resolver o acima problema usando Excel, digitar o n e x valores como
mostrando em Figo. 10.9. Observação que
336 Cha pte r T e n

F IGURA 10.9 Exemplo de encontrando qui-quadrado probabilidade usando Microsoft Excel.

excel usa graus de liberdade em vez de que o amostra tamanho em isso é cálculos;
graus de liberdade é o tamanho da amostra menos um, conforme mostrado na caixa
Deg_freedom na Fig. 10.9. O Fórmula resultado aproximar o fundo de o tela dá o
desejado probabilidade.

Exemplo de Inverso qui-quadrado Probabilidade cálculos Usando Microsoft excel


Microsoft excel tem a construídas em capacidade para calcular qui-quadrado
probabilidades, fazendo isto desnecessário para olhar acima o probabilidades em
tabelas. Para encontrar o crítico qui-quadrado valor para o acima problema usando
Excel, usar o CHINV função e digitar o desejado probabilidade e graus de liberdade
como mostrado na Fig. 10.10. O resultado da fórmula perto do fundo da tela fornece o
valor crítico desejado.

F IGURA 10.10 Exemplo de encontrando inverso qui-quadrado probabilidade usando Microsoft Excel.
Analyze Phase 337

T do aluno Distribuição
A estatística t é comumente usada para testar hipóteses sobre médias, coeficientes de
regressão cientistas e uma ampla variedade de outras estatísticas usadas na
engenharia de qualidade. “Estudante” era o pseudônimo de WS Gosset, cujo precisar
para quantificar o resultados de pequeno escala experiência- imentos motivado ele
para desenvolver e tabular o probabilidade integrante de o razão qual agora é
conhecido como o t estatística e é mostrado na Eq. (10.4).

x  (10.4)
t s / n

Na Eq. (10.4), o denominador é o desvio padrão da média amostral. Os pontos


percentuais da função de distribuição correspondente de t podem ser encontrados em
Apêndice 3. Existe uma distribuição t para cada tamanho de amostra de n > 1. Como o
tamanho da amostra aumenta, o t distribuição abordagens o forma de o normal
distribuição, como mostrando em Figo. 10.11.
Um de o mais simples (e maioria comum) formulários de o estudante t teste
envolve usando a amostra de a normal população com significar  e variância  2 .
Esse é demônio- strated na hipótese seção de teste mais tarde em este capítulo.

F Distribuição
Suponha que temos duas amostras aleatórias retiradas de uma população normal.1
Seja
s 2 o variância da primeira amostra
1
e s 2 a variância da segunda amostra. Os dois sa-
ples não precisam ter o mesmo tamanho de amostra. A estatística F dado por

2
F  s1
(10.5)
s22
tem a amostragem distribuição chamado o F distribuição . Lá são dois amostra
variações envolvido e dois conjuntos de graus de liberdade, n 1  1 em o numerador e
n 2  1 em o

Normal distribution
n=
t distribution for
n = 10

t Distribution
for n = 2

F IGURA 10.11 estudante t distribuições.


338 Cha pte r T e n

1,0

0,8 F(2, 2)

0,6

0,4

0,2

0,0
0 24 6
8 10
F
8
7
6
F(10, 10)
5
4
3
2
1
0
0 8 10
2 4 6
F
F IGURA 10.12 F distribuições.

denominador. Os Apêndices 5 e 6 fornecem valores para os pontos percentuais de 1 e


5% para a distribuição F. As porcentagens referem-se às áreas à direita dos valores
dados em o tabelas. A Figura 10.12 ilustra dois distribuições F.

Apontar e Intervalo Estimativa


Então distante, nós ter introduzido a número de importante Estatisticas Incluindo o
amostra significar, o desvio padrão da amostra e a variância da amostra. Essas
estatísticas de amostra são chamados de estimadores pontuais porque são valores únicos
usados para representar a população parâmetros. Isto é também possível para
construir um intervalo sobre o Estatisticas que tem a pré- probabilidade determinada
de incluir o verdadeiro parâmetro da população. Este intervalo é chamado intervalo de
confiança . A estimativa intervalar é uma alternativa à estimativa pontual que nos dá
uma idéia melhor da magnitude do erro de amostragem. Os intervalos de confiança
podem ser qualquer unilateral ou bilateral. A unilateral ou confiança intervalo lugares
um superior ou limite inferior no valor de um parâmetro com um nível de confiança
especificado. Um dois- intervalo de confiança lateral coloca limites superiores e
inferiores.
Em quase todas as aplicações práticas de estatísticas enumerativas, incluindo Six
Sigma aplicações, fazemos inferências sobre populações com base em dados de amostras .
Nisso capítulo, nós ter falou sobre amostra médias e padrão desvios; nós ter até usado
esses números para fazer declarações sobre futuro desempenho, tal como longo
prazo
Analyze Phase 339

rendimentos ou falhas potenciais. Surge um problema que é de considerável


importância prática. tância: qualquer estimativa baseada em uma amostra tem alguma
quantidade de erro de amostragem. Esse é verdadeiro até no entanto o amostra
estimativas são o "melhor estimativas” em o senso que eles são (geralmente)
estimadores imparciais dos parâmetros populacionais.

estimativas de o Significar
Para aleatório amostras com substituição, o amostragem distribuição de x tem a
significar  e _ a padrão desvio igual para  / n . Para grande amostras o amostragem
distribuição de x é aproximadamente normal e normal mesas pode ser usado para
encontrar o probabilidade que a sam- média geral estará dentro de uma determinada
distância de  .
Para exemplo, em 95% de o amostras nós vai observar a significar dentro de  1,96  / n
de n
 . Em outro palavras, em 95% de o amostras o intervalo de x  1,96  / para x  1,96  /
n
vai incluir  . Esse intervalo é chamado a “95% confiança intervalo para estimando 
.” Isto é geralmente mostrado usando símbolos de desigualdade:

x  1,96  / n <  x + 1,96  / n

O fator 1,96 é o valor Z obtido da normal no Apêndice 2. Corresponde responde


para o Z valor além qual 2,5% de o população mentira. Desde o normal distrito mas a
distribuição é simétrica, 2,5% da distribuição está acima de Z e 2,5% abaixo de − Z . O
notação comumente usada para denotar valores Z para construção de intervalo de
confiança ou hipótese testando é Z  /z onde 100(1 –  ) é o desejado confiança nível em
por cento. Para exemplo, se nós querer 95% confiança,   0:05, 100(1 –  )  95%, e Z
0,025
 1,96. Em hipo- esis testando o valor de  é conhecido como o nível de significância .

Exemplo: Estimativa eu Quando r É Conhecido


Suponha que  _ é conhecido por ser 2,8. Suponha que coletamos uma amostra de n =
16 e com- pute x  15.7. Usando a equação e mencionada na seção anterior,
encontramos os 95% intervalo de confiança para  do seguinte modo:

x  1,96  / n <  < x + 1,96  / n


15.7  1,96(2,8/
16 ) <  < 16 )
15,7+1,96(2,8/
14.33 <  < 17.07

Há um nível de confiança de 95% associado a esse intervalo. Os números 14.33 e


17.07 às vezes são referidos como os limites de confiança .
Observação que esse é a frente e verso confiança intervalo. Lá é a 2,5% probabilidade que
17.07 é menor que  e uma probabilidade de 2,5% de que 14,33 seja maior que  . Se
nós fossemos interessado apenas em, digamos, a probabilidade de que  foram
maiores que 14,33, então o lado confiança intervalo seria ser  > 14.33 e o unilateral
confiança nível seria ser 97,5%.

Exemplo de Usando Microsoft excel para Calcular o Confiança Intervalo para o


Significar Quando Sigma É Conhecido
340 Cha pte r T e n
O Microsoft Excel possui um recurso interno para calcular intervalos de confiança
para a média. O diálogo caixa em Figo. 10.13 shows o entrada. O Fórmula resultado
aproximar o fundo de
Analyze Phase 341

F IGURA 10.13 Exemplo de encontrando o confiança intervalo quando sigma é conhecido usando
Microsoft
Excel.

a tela fornece a largura do intervalo como 1,371972758. Para encontrar o limite de


confiança inferior subtrair o largura de o significar. Para encontrar o superior
confiança limite adicionar o largura para o significar.

Exemplo: estimativa eu Quando r É desconhecido


Quando  não é conhecido e queremos substituir  com s no cálculo do intervalo de
confiança valores para  , devemos substituir Z  /2 por t  / 2 e obter os percentis das
tabelas para estudantes distribuição t do dente em vez das tabelas normais. Vamos
revisitar o exemplo acima e presumir que em vez de de sabendo  , isto era estima m
comeu de _ _ o amostra, que é, baseado na amostra de n = 16, calculamos s = 2.8 e X 
15.7. Então o intervalo de confiança de 95% val se torna:

x  2.131s / n < _  < x + 2.131s /n_


15.7
 2.131 ( 2.8 16 ) <  < 15.7 + 16 )
/ _ 2.131(2.8/
14.21 <  < 17.19

Isto pode-se ver que este intervalo é mais largo do que o obtido para  . O t / 2
valor encontrado para 15 df é 2.131 (ver Mesa 3 em o Apêndice), qual é maior que Z  /2 
1,96 acima.

Exemplo de Usando Microsoft excel para Calcular o Confiança Intervalo para o


Significar Quando Sigma É Desconhecido
Microsoft excel tem não construídas em capacidade para calcular confiança intervalos
para o significar quando sigma é não conhecido. No entanto, isto faz ter o habilidade
para calcular valores- t quando probabilidades e graus de liberdade dados. Esta
informação pode ser inserida em um equação e usado para encontrar os limites de
confiança desejados. A Figura 10.14 ilustra o abordagem. A barra de fórmulas mostra
a fórmula para o limite de confiança superior de 95% para a média na célula B7.
342 Cha pte r T e n

F IGURA 10.14 Exemplo de encontrando o confiança intervalo quando sigma é desconhecido usando
Microsoft
Excel.

Hipótese teste
estatístico inferência geralmente envolve quatro passos:

1. Formulando uma hipótese sobre a população ou “estado da natureza"


2. coletando uma amostra de observações de população
3. Calculando estatísticas com base na amostra
4. Qualquer aceitando ou rejeitando o hipótese baseado sobre a
predeterminado aceita- critério de tância
Lá são dois tipos de erro associado com estatístico inferência:

Tipo EU erro (  erro)—O probabilidade que a hipótese que é na verdade


verdadeiro vai ser rejeitado. O valor de  é conhecido como nível de significância
do teste.
Tipo II erro (  erro)—O probabilidade que a hipótese que é na verdade falso vai
Ser aceito.
Tipo II erros são muitas vezes traçado em o que é conhecido como um
operativo características curva.

Intervalos de confiança são geralmente construídos como parte de um teste


estatístico de hipóteses . O hipótese teste é projetado para ajuda nós fazer um inferência
sobre o verdadeiro população valor no a desejado nível de confiança. Nós vai olhar no
a alguns exemplos de como hipótese testes podem ser usados em aplicações Seis
Sigma.

Exemplo: Hipótese Teste de Amostra Significar


Experiência: A especificação nominal para encher uma garrafa com um produto
químico em estudo é de 30 cc. O plano é para empate a amostra de n  25 unidades de
a estábulo processo e, usando o amostra média e desvio padrão, construa um
intervalo de confiança bilateral (um intervalo que se estende em ambos os lados da
média da amostra) que tem 95% de probabilidade de inclusão a verdadeira média da
população. Se o intervalo incluir 30, conclua que a média do lote é 30, caso contrário
conclua que a média do lote não é 30.
340 Cha pte r T e n

Resultado: A amostra de 25 garrafas foi medido e o seguinte estatísticas calculadas

x  28 cc
s  6 cc

O teste apropriado estatística é t , dado pelo Fórmula


x 28  30
t    1,67
s /n 6/ 25

Mesa 3 em o Apêndice dá valores para o t estatística no vários graus de liberdade.


Existem n – 1 graus de liberdade (df ). Para o nosso exemplo, precisamos de t 0,975
coluna e o linha para 24 df . Esse dá a t valor de 2.064. Desde o absoluto valor de esse
t valor é maior que nossa estatística de teste, falhamos em rejeitar a hipótese de que a
média do lote é 30 cc. Usando a notação estatística, isso é mostrado como:

H 0 :   30 cc (a hipótese nula )
H 1 :  não é igual a 30 cc (o hipótese alternativa )
  0,05 ( Tipo EU erro ou nível de
significado ) Crítico região: −2.064  t 0 
 2.064
Estatística de teste: t  −1,67.

Como t está dentro da região crítica, não rejeite H 0 e aceite a hipótese de que a
média do lote é de 30 cc para os dados em questão.

Exemplo: Hipótese Teste de Dois Amostra variações


A variação da saída da máquina X, com base em uma amostra de n = 25 retirado de
um estábulo processo, é 100. Máquina Y's variação, baseado sobre a amostra de 10, é
50. O fabricação representante de o fornecedor de máquina x contende que o
resultado é a mero “estat- tical acaso.” assumindo que a “estatístico sorte” é algo que
tem menos que 1 chance em 100, teste a hipótese de que ambas as variâncias são
realmente iguais.
A estatística de teste usada para testar a igualdade de duas variâncias de amostra
é a estatística F , que, para este exemplo, é dada pela equação

s1 2 100
F   2, numerador df  24, denominador df = 9
s22 50

Usando Mesa 5 em o Apêndice para F .99 nós encontrar que para 24 df em o


numerador e 9 df no denominador F  4.73. Com base nisso, concluímos que o
fabricante de máquina X pode estar certa, o resultado pode ser um acaso estatístico.
Este exemplo demonstra- indica a natureza volátil do erro de amostragem de
variâncias de amostra e padrão desvios.

Exemplo: Teste de hipótese de a Padrão Desvio comparado para a Valor padrão


A máquina é suposto para produzir peças em o faixa de 0,500 polegada mais ou menos
0,006 polegada. Com base nisso, seu estatístico calcula que o pior desvio padrão
absoluto tolerável é de 0,002 polegadas. Ao examinar seus gráficos de capacidade,
você descobre que o melhor máquina em o comprar tem a padrão desvio de 0,0022,
baseado sobre a amostra de 25 unidades.
Analyze Phase 341

Ao discutir a situação com o estatístico e a administração, concorda-se que o máquina


será usada se um intervalo de confiança unilateral de 95% em sigma incluir 0,002.
A estatística correta para comparar um desvio padrão de amostra com um padrão
valor é a estatística qui-quadrado. Para nossos dados, temos s  0,0022, n = 25, e  0 
0:002. O  2 estatística tem n − 1  24 graus de liberdade. Por isso,

( n  1) s 2 24  (0,0022) 2
2    29.04
2 (0,002) 2

O Apêndice 4 fornece, na coluna 0,05 (uma vez que estamos construindo uma
configuração unilateral intervalo de dence) e o df  24 linhas, o valor crítico  2  36.42.
Desde o nosso calculado valor de  2 for menor que 36,42, usamos a máquina. O leitor
deve reconhecer que todos de esses exercícios envolvido a número de premissas, para
exemplo, que nós "saber" que o melhor máquina tem a padrão desvio de 0,0022. Em
realidade, esse conhecimento deve ser confirmado por um gráfico de controle estável.

Reamostragem (Bootstrapping)
A número de críticas ter estive criado a respeito de o métodos usado para estimativa e
testando hipóteses:

 Eles são não intuitivo.


 Eles são baseado sobre forte premissas (por exemplo, normalidade) que são
muitas vezes não conheceu em prática.
 Eles são difícil para aprender e para aplicar.
 Eles são sujeito a erros.

Em recente anos a novo método de realizando esses análises tem estive


desenvolvido. Isto é conhecido como reamostragem ou bootstrapping. O novo
métodos são conceitualmente bastante simples: usando os dados de uma amostra,
calcule a estatística de interesse repetidamente e examine a distribuição da estatística.
Por exemplo, digamos que você obteve uma amostra de n = 25 me- garantias de a
muito e você desejou para determinar a confiança intervalo sobre o estatística
C .  Usando reamostragem, você seria dizer o computador para selecionar a amostra de n 
25 de o
PK

amostrar resultados , calcular C PK e repetir o processo muitas vezes, digamos 10.000


vezes. Você seria então determinar qualquer que seja percentagem apontar valor você
desejou por simplesmente olhando no o resultados. O amostras seria ser levado "com
substituição," que é, a especial valor de o original amostra poder aparecer diversos
vezes (ou não no todos) em a redimensionamento.
Reamostragem tem muitos vantagens, especialmente em o era de facilmente
disponível, baixo custo poder do computador. Planilhas podem ser programadas para
reamostrar e calcular o padrão tísticas de interesse. Em comparação com os métodos
estatísticos tradicionais, a reamostragem é mais fácil para a maioria das pessoas
entender. Ele funciona sem fortes suposições e é simples. A reamostragem não impõe
tanta bagagem entre o problema de engenharia e o resultado estatístico como os
métodos convencionais. Também pode ser usado para funções mais avançadas
problemas, como modelagem, design de experimentos, etc.
Para uma discussão da teoria por trás da reamostragem, veja Efron (1982). Para
uma apresentação- ção de numerosos exemplos usando um reamostragem
computador programa ver Simon (1992).
342 Cha pte r T e n
 Consulte o cap. 6.
Analyze Phase 343

Regressão e Correlação Análise


A ferramenta mais simples usada na análise de regressão costuma ser chamada de
gráfico de dispersão ou gráfico de dispersão. diagrama. Um diagrama de dispersão é um
gráfico de uma variável versus outra. Uma variável é chamado o independente
variável e isto é geralmente mostrando sobre o horizontal (fundo) eixo. A outra
variável é chamada de variável dependente e é mostrada na vertical (lado) eixo.
Diagramas de dispersão são usados para avaliar relações de causa e efeito. O
pressuposto- ção é que a variável independente está causando uma mudança na
variável dependente. Os gráficos de dispersão são usados para responder a perguntas
como “A duração do treinamento nada a ver com a quantidade de sucata que um
operador faz?”
Por exemplo, um gerente de pomar acompanha o peso dos pêssegos sobre um dia
por dia base. Os dados são fornecidos na tabela 10.2.
O diagrama de dispersão é mostrado na Fig. 10.15.

ponteiros para Usando dispersão Diagramas


 dispersão diagramas mostrar diferente padrões que deve ser interpretado;
Figo. 10.16 fornece um guia de interpretação do diagrama de dispersão.

Número Dias sobre Árvore Peso (Onças)


1 75 4.5
2 76 4.5
3 77 4.4
4 78 4.6
5 79 5,0
6 80 4.8
7 80 4.9
8 81 5.1
9 82 5.2
10 82 5.2
11 83 5.5
12 84 5.4
13 85 5.5
14 85 5.5
15 86 5.6
16 87 5.7
17 88 5.8
18 89 5.8
19 90 6.0
20 90 6.1

De Pyzdek, 1990, P. 67.


MESA _ 10.2 Cru Dados para dispersão Diagrama
344 Cha pte r T e n

dispersão trama
6.5

6.0

5.5

Weight
5,0

4.5

4.0
70 7580859095
Dias

F IGURA 10.15 Concluído espalhar diagrama. ( De Pyzdek (1990), Pág. 68. Direitos autorais ©
1990 por Qualidade Publicando. )

forte positivo Positivo moderado Não correlação


correlação correlação

Negativo moderado Negativo forte Curvilíneo


correlação correlação relação

F IGURA 10.16 dispersão diagrama interpretação guia. ( De Pyzdek, 1990 . P.69 .)

 Certifique-se de que a variável independente, X, seja variada em um intervalo


suficientemente grande faixa. Quando X é alterado apenas uma pequena
quantidade, você pode não ver uma correlação com Y , embora a correlação
realmente existe.
 Se você fazer a predição para Y , para um x valor que mentiras fora de o faixa
você testado, esteja ciente de que a previsão é altamente questionável e deve
ser testado minuciosamente. Prever um valor Y além do intervalo X realmente
testado é chamada extrapolação.
Analyze Phase 345

 Manter um olho fora para o efeito de variáveis você não Avalie. Muitas vezes,
um incon- trollado variável vai limpar fora o efeito de seu x variável. Isto é
também possível que uma variável descontrolada estará causando o efeito e
você confundirá o X variável que você está controlando como a verdadeira
causa. Este problema é muito menos provável para ocorrer se você escolher x
níveis no aleatório. Um exemplo de esse é nosso pêssegos. Isto é possível que
qualquer número de variáveis tenha mudado constantemente ao longo do
período de tempo investigado. É possível que essas variáveis, e não a variável
independente capazes, são responsáveis pelo ganho de peso (por exemplo, o
fertilizante foi adicionado periodicamente durante o período de tempo
investigado?).
 Cuidado com os dados do “acaso”! Dados de ocorrência são dados que foram
coletados lecionados no passado com um propósito diferente da construção de
um diagrama de dispersão. Como pouco ou nenhum controle foi exercido
sobre variáveis importantes, você pode achar quase nada. Os dados de
ocorrência devem ser usados apenas para obter ideias para investigação,
nunca para chegar a conclusões definitivas. Um problema comum com acaso
dados é que o variável que é verdadeiramente importante é não gravado. Por
exemplo, os registros podem mostrar uma correlação entre o defeito taxa e a
mudança. No entanto, talvez a verdadeira causa dos defeitos seja o ambiente
temperatura, que também muda com a mudança.
 Se houver mais de uma fonte possível para a variável dependente, tente usar
diferente plotagem símbolos para cada fonte. Para exemplo, se o Pomar
gerente sabia que alguns pêssegos foram retirados de árvores perto de uma
rodovia movimentada, ele poderia use um símbolo diferente para esses
pêssegos. Ele pode encontrar uma interação, ou seja, talvez os pêssegos das
árvores perto da rodovia tenham uma taxa de crescimento diferente que
aqueles de árvores profundas dentro do pomar.
 Embora seja possível fazer análises avançadas sem plotar a dispersão
diagrama, isso geralmente é uma prática ruim. Isso perde o enorme
aprendizado oportunidade fornecidos pela análise gráfica dos dados.

Correlação e Regressão
Análise de correlação (o estudo da força das relações lineares entre as variáveis
habilidades) e análise de regressão (modelar a relação entre um ou mais variáveis
dependentes e uma variável dependente) são atividades de considerável importância
em Seis Sigma. Um problema de regressão considera as distribuições de frequência de
uma variável. capaz quando outro é mantido fixo em cada um dos vários níveis. Um
problema de correlação siders o articulação variação de dois variáveis, nenhum de
qual é restrito por o experimentador. Correlação e regressão análises são projetado
para ajudar o analista no estudo de causa e efeito. Claro, as estatísticas não podem
por si só estabelecer a causa e efeito. Provar causa e efeito requer uma compreensão
científica sólida do situação em questão. Os métodos estatísticos descritos nesta seção
ajudam o analista a realizando esse tarefa.

Linear modelos
Um modelo linear é simplesmente uma expressão de um tipo de associação entre duas
variáveis, x e y . Uma relação linear significa simplesmente que uma mudança de um
determinado tamanho em x produz uma proporcional mudança em y . Os modelos
lineares têm a forma:
346 Cha pte r T e n
y  a  bx (10.6)
Analyze Phase 347

25

20 Y = 1 + 2X

15
Y
10 2
1

Intercept = 1
0
0 246810
x

F IGURA 10.17 dispersão diagrama de a linear relação.

onde a e b são constantes. O equação simplesmente diz que quando x mudanças por um
unidade,
y vai mudar por b unidades. Esse relação pode ser mostrando graficamente.
Na Fig. 10.17, a  1 e b = 2. O termo a é chamado de intercepto e b é chamado de
declive. Quando x  0, y é igual ao intercepto, a Fig. 10.17 representa um ajuste linear
perfeito, para Por exemplo, se x for conhecido, podemos determinar y exatamente.
Claro, ajustes perfeitos são virtualmente desconhecido quando real dados são usado.
Em prática nós deve negócio com erro em x e y . Esses problemas são discutidos
abaixo.
Muitos tipos de associações são não lineares, mas podem ser convertidas em
lineares para facilidade de análise, conforme descrito mais adiante neste capítulo.
Ao realizar análises de regressão e correlação, podemos distinguir dois principais
tipos de variáveis. Um tipo nós chamar preditor variáveis ou independente variáveis ; o
outro, variáveis de resposta ou variáveis dependentes . Por variáveis independentes
preditoras, geralmente variáveis médias que podem ser definidas para uma variável
desejada (por exemplo, temperatura do forno) ou outro pegar valores que pode ser
observado mas não controlada (por exemplo, ao ar livre ambiente úmido- idade).
Como a resultado de mudanças que são deliberadamente feito, ou simplesmente
pegar lugar em o previsão Para variáveis, um efeito é transmitido para as variáveis de
resposta (por exemplo, o tamanho do grão de um material composto). Geralmente
estamos interessados em descobrir como as mudanças no pré- ditador variáveis afetar
o valores de o resposta variáveis. Idealmente, nós ter esperança que a pequeno
número de variáveis preditoras “explicará” quase toda a variação na resposta
variáveis.
Em prática, isto é às vezes difícil para empate a claro distinção entre independente
e dependente variáveis. Em muitos casos isto depende sobre o objetivo de o
investigador. Por exemplo, um analista pode tratar a temperatura ambiente como uma
variável preditora no estudo da qualidade da tinta e como variável de resposta em um
estudo de salas limpas tardes. No entanto, o definições acima são útil em
planejamento Seis Sigma estudos.
348 Cha pte r T e n
Outra ideia importante para estudar causa e efeito é a do espaço de dados do
estudar. O espaço de dados de um estudo refere-se à região delimitada pelo intervalo
do inde- pendente variáveis sob estudar. Em em geral, previsões baseado sobre
valores fora o dados
Analyze Phase 349

Point outside
the data space

Data
space

F IGURA 10.18 Dados espaço.

espaço estudado, chamadas extrapolações , são pouco mais que especulações e não
aconselhadas. A Figura 10.18 ilustra o conceito de espaço de dados para duas
variáveis independentes. Defini- ing o dados espaço pode ser bastante complicado
quando grande números de independente variáveis são envolvido.
Embora a análise numérica de dados forneça informações valiosas, ela deve
sempre ser suplementado com gráfico análise como bem. dispersão diagramas são um
muito suplemento útil para análise de regressão e correlação. A Figura 10.19 ilustra o
valor de complementar a análise numérica com diagramas de dispersão.
Em outras palavras, embora os diagramas de dispersão mostrem claramente
quatro processos distintos, a análise estatística não. No Seis Sigma, a análise numérica
sozinha não é suficiente.

mínimos quadrados Ajustar


Se todos os dados caíssem em uma linha perfeitamente reta, seria fácil calcular a
inclinação e interceptar dados quaisquer dois pontos. No entanto, a situação torna-se
mais complicada quando há “dispersão” ao redor da linha. Ou seja, para um dado
valor de x , mais de um valor de y aparece. Quando isso ocorre, temos erro no modelo.
A Figura 10.20 ilustra trata o conceito de erro.
O modelo para a simples linear regressão com erro é:

y  a  bx   (10.7)

onde  representa erro. Geralmente, assumindo o modelo adequadamente encaixa o


dados, erros Assume-se que seguem uma distribuição normal com média 0 e padrão
constante. desvio. O desvio padrão dos erros é conhecido como erro padrão . nós dis-
xingar maneiras de verificar nosso hipóteses abaixo.
Quando ocorre um erro, como acontece em quase todas as situações do “mundo
real”, há muitos possíveis linhas que podem ser usadas para modelar os dados.
Algum método deve ser encontrado qual fornece, em alguns senso, a “melhor
ajuste” equação em esses diariamente situações.
350 Cha pte r T e n

F IGURA 10.19 Ilustração de o valor de espalhar diagramas. ( De Tufê, 2001. )

F IGURA 10.20 Erro em o linear modelo.

347
348 Cha pte r T e n

Os estatísticos desenvolveram um grande número desses métodos. O método mais


mensalmente usado em Seis Sigma encontra o direto linha que minimiza o soma de o
quadrados de o erros para todos de o dados pontos. Esse método é conhecido como o
“mínimos quadrados” melhor ajuste linha. Em outro palavras, o melhor ajuste de
mínimos quadrados equação de linha é e eu   a  bx eu onde a e b
são encontrado então que o soma de o quadrado desvios de o linha é minimizado. O
melhor ajuste equações para a e b são:


 Y )
(X i X )(Y (10.8)
ib


2
(XiX )
(10.9)

a  Y  bX

onde a soma é tomada sobre todos os n valores. A maioria das planilhas e


calculadoras científicas têm uma capacidade integrada para calcular a e b . Como dito
acima, existem muitos outros caminhos para calcular o declive e interceptar (por
exemplo, minimizar o soma de o absoluto desvia- ções, minimizar o desvio máximo,
etc.); em certas situações, uma das alternativas podem ser preferidos. O leitor é
aconselhado a consultar livros dedicados à regressão análise para obter informações
adicionais [ver, por exemplo, Draper e Smith (1981)].
O leitor deve observação que o ajustar obtido por regredindo x sobre y vai não em
em geral produzir a mesma linha que seria obtida regredindo y sobre x . Isso é
ilustrado em Fig. 10.21.
Quando o peso é regredido na altura, a equação indica o peso médio (em libras)
para a dado altura (em polegadas). Quando altura é regrediu sobre peso o equação
indica a altura média para um determinado peso. As duas retas se interceptam na
média altura e peso.

250
240
230
220
210 Regressão de
peso sobre altura
200
Weight in pounds

190
180
170
160
150
140
130
120 Regressão de
110 altura sobre peso
100
60 7080
Altura em polegadas
Analyze Phase 349
F IGURA 10.21 mínimos quadrados linhas de peso contra altura e altura contra peso.
350 Cha pte r T e n

Esses exemplos mostram como uma única variável independente é usada para
modelar o resposta de a dependente variável. Esse é conhecido como simples linear
regressão . Isto é também pos- capaz de modelar a variável dependente em termos de
duas ou mais variáveis independentes; isso é conhecido como regressão linear múltipla .
O modelo matemático para múltiplos lineares regressão tem adicional termos para o
adicional independente variáveis. Equação (10.10) shows um modelo linear quando
existem duas variáveis independentes.

e  a  b 1x 1  b 2x 2   (10.10)

onde x 1 , x 2 são variáveis independentes, b 1 é o coeficiente para x 1 e b 2 é o coeficiente


para x 2 .

Exemplo de Regressão Análise


Um restaurante conduzido pesquisas de 42 clientes, obtendo cliente avaliações
sobre serviço da equipe, qualidade da comida e satisfação geral com a visita ao
restaurante. Figura 10.22 shows o regressão análise saída de a planilha regressão
função (Microsoft Excel).
Os dados consistem em duas variáveis independentes, pessoal e qualidade
alimentar, e uma única dependente variável, geral satisfação. O básico ideia é que o
qualidade de funcionários serviço e o comida são causas e o geral satisfação pontuação
é um efeito . O regressão fora- colocar é interpretado da seguinte forma:

 Múltiplo R - o múltiplo correlação coeficiente. Isto é o correlação entre y


e yˆ . _ Para o exemplo: múltiplo R  0,847, qual indica que y e yˆ _ é _ _

F IGURA 10.22 Regressão análise saída.


350 Cha pte r T e n

altamente correlacionados, o que implica que existe uma associação entre


satisfação e a qualidade da comida e serviço.
 R quadrado—o quadrado de múltiplos R , ele mede a proporção da variação
total sobre a média Y explicada pela regressão. Para o exemplo: R 2  0,717, o
que indica que a equação ajustada explica 71,7% da variação total sobre o
nível médio de satisfação.
 R quadrado ajustado - uma medida de R 2 “ajustado para graus de liberdade.”
O equação é
Ajustado _ _ _ _ _ _ R 2  1  (
(10.11)
n1 n
1  R 2)   p

onde p é o número de parâmetros (coeficientes para os xs ) estimados no


modelo. Para o exemplo: p  2, desde lá são dois x termos. Alguns
experimentadores preferem o R 2 ajustado ao R 2 desajustado , enquanto outros veem
pouca vantagem em (por exemplo, Draper e Smith, 1981, p. 92).
 Padrão erro - o padrão desvio de o residuais. O residual é o diferente- diferença
entre os valores observados de y e os valores previstos com base no regressão
equação.
 Observações - consulte para o número de casos em o regressão análise, ou n .
 ANOVA, ou análise de variância a mesa examinando o hipótese que o variação
explicada pela regressão é zero. Se for assim, então a associação observada
poderia ser explicado por chance sozinho. O linhas e colunas são aqueles de a
padrão tabela ANOVA de um fator (discutida com mais detalhes
posteriormente neste capítulo). Por esta Por exemplo, o item importante é a
coluna denominada “Significance F .” O valor que mostrando, 0,00, indica que
o probabilidade de recebendo esses resultados devido para chance sozinho é
menos que 0,01; que é, o Associação é provavelmente não devido para chance
sozinho. Observação que o ANOVA aplica-se para o inteiro modelo , não para o
Individual variáveis.
O próximo mesa em o saída examina cada de o termos em o linear
modelo separadamente. O interceptar é como descrito acima, e corresponde
para nosso prazo a em a equação linear. Nosso modelo usa duas variáveis
independentes. Em nosso termo equipe de nologia  b 1 , comida  b 2 . Assim,
lendo a partir da coluna de coeficientes, o linear modelo é: y  −1,188  0,902 
pontuação da equipe  0,379  pontuação alimentar. O restante colunas teste
as hipóteses que cada um coeficiente no modelo é na verdade zero.
 Coluna de erro padrão—fornece os desvios padrão de cada termo, ou seja, o
padrão desvio do intercepto  0,565, etc
 t Coluna Stat - o coeficiente dividido pelo erro padrão, ou seja, mostra como
muitos desvio padrão o observado coeficiente é de zero.
 P -valor - mostra o área em o cauda de a t distribuição além o calculado
valor t . Para a maioria dos trabalhos experimentais, um valor P inferior a 0,05
é aceito como indicação que o coeficiente é significativamente diferente que
zero. Todos de o termos em nosso modelo têm significativa valores P.
 Colunas 95% inferior e 95% superior - um intervalo de confiança de 95% no
coeficiente eficiente. Se o confiança intervalo faz não incluir zero, nós vai
falhar para rejeitar a hipótese de que o coeficiente é zero. Nenhum dos
intervalos em nosso exemplo incluir zero.
Analyze Phase 351

Correlação Análise
Como mencionado anteriormente, um problema de correlação considera a variação
conjunta de duas variáveis. possibilidades, nenhuma das quais é restringida pelo
experimentador. Ao contrário da análise de regressão, que considera o efeito da(s)
variável(is) independente(s) sobre uma variável dependente, cor- relação análise é
preocupado com o articulação variação de um independente variável com outro. Em
um problema de correlação, o analista tem duas medidas para cada indivíduo. ual
item em o amostra. Diferente a regressão estudar onde o analista controles o valores
de o x variáveis, correlação estudos geralmente envolver espontâneo variação em o
vari- capazes ser estudado. Correlação métodos para determinando o força de o linear
rela- relacionamento entre duas ou mais variáveis estão entre os métodos estatísticos
mais amplamente aplicados. técnicas. Existem métodos mais avançados para estudar
situações com mais de dois variáveis (por exemplo, análise canônica, análise fatorial,
análise de componentes principais, etc.), no entanto, com exceção da regressão
múltipla, nossa discussão se concentrará no associação linear de duas variáveis ao
mesmo tempo.
Em maioria casos, o medir de correlação usado por analistas é o estatística r , às
vezes referido para como Pearson's momento do produto correlação . Geralmente x e y são
assumiu para ter a distribuição normal bivariada. Sob esta suposição, r é uma
estatística amostral que estima companheiros o população correlação parâmetro r .
Um interpretação de r é baseado sobre o linear regressão modelo descrito mais cedo,
nomeadamente que r 2 é o proporção de o total variabilidade em o y dados qual pode
ser explicado por o linear regressão modelo. O equação para r é:

s xy n  xy x y
r  (10.12)
s xs y n x2   x2  n y 2   2
  
y

e, de curso, r 2 é simplesmente o quadrado de r . r é limitado no −1 e  1. Quando o
presumir- ções segurar, o significado de r é testado pelo regressão ANOVA.
A interpretação de r pode se tornar bastante complicada, então os gráficos de
dispersão sempre devem ser usados (consulte acima). Quando o relação entre x e y é
não linear, o “explicativo poder" de r é difícil para interpretar em preciso termos e
deve ser discutido com ótimo Cuidado. Enquanto isto é fácil para ver o valor de muito
alto correlações tal como r  0:99, isto é não então fácil para empate conclusões de
mais baixo valores de r , até quando eles são estatisticamente significativo (ou seja,
eles são significativamente diferente que 0,0). Para exemplo, r  0,5 faz não significar o
dados mostrar metade como muito agrupamento como a perfeito linha reta ajustar.
Em facto, r  0 faz não significar que lá é não relação entre o x e y dados, como Figo.
10.23 shows. Quando r > 0, y tende para aumentar quando x aumenta. Quando r < 0, y
tende para diminuir quando x aumenta.
Embora r = 0, a relação entre x e y é perfeita, embora não linear. No outro extremo,
r = 1, uma “correlação perfeita”, não significa que haja uma causa e efeito relação entre
x e y . Para exemplo, ambos x e y poder ser determinado por uma terceira variável, z .
Em tais situações, z é descrito como uma variável à espreita que “esconde” em o fundo,
desconhecido para o experimentador. à espreita variáveis são atrás alguns de o infame
bobagem associações, tal como o Associação entre professores pagar e licor vendas (a
variável à espreita é a prosperidade geral). 
352 Cha pte r T e n
 É possível avaliar a associação de x e y removendo o efeito da variável oculta. Esse pode ser feito
usando análise de regressão e computando coeficientes de correlação parciais. Este avançado
procedimento é descrito na maioria dos textos sobre regressão análise.
Analyze Phase 353

11,0

10.5

Y 10,0

9.5

9,0
0,0 0,51,0
1,5 2,0
x

F IGURA 10.23 interpretando r = 0 para curvilíneo


dados.

Estabelecendo causalidade requer sólido científico entendimento. causalidade não


pode ser “comprovado” por Estatisticas sozinho. Alguns estatístico técnicas, tal como
caminho análise, pode ajuda determinar se as correlações entre um número de
variáveis são consistentes com premissas. No entanto, esses métodos estão além O
escopo de este livro.

Projetado experimentos
Projetado experimentos jogar um importante papel em qualidade melhoria. Enquanto
o confi- intervalos de confiança e testes de hipóteses discutidos anteriormente são
limitados a comparações entre uma amostra e requisitos ou entre duas amostras, o
experimentos projetados usarão técnicas de ANOVA (análise de variância) para
particionar o variação em a resposta entre o potencial fontes de variação. Esse seção
vai introduzir os conceitos básicos envolvidos e irá contrastar o design
estatisticamente experimente a abordagem “um fator de cada vez” (OFAT) usada
tradicionalmente. Também brevemente discutidos são os conceitos envolvidos nos
métodos de Taguchi, métodos estatísticos nomeado depois deles criador, dr. Genichi
Taguchi.

A abordagem tradicional versus experimentos projetados estatisticamente A abordagem


tradicional, que a maioria de nós aprendeu nas aulas de ciências do ensino médio, é
manter todos os fatores constantes excepto um. Quando esta abordagem é usada,
podemos ter certeza de que a variação é devido a um relação de causa e efeito, ou
assim nos dizem. No entanto, esta abordagem sofre de uma número de problemas:

 Geralmente não é possível manter todas as outras variáveis constantes.


 Lá é não caminho para conta para o efeito de articulação variação de
independente vari- habilidades, como a interação.
 Lá é não caminho para conta para experimental erro, Incluindo medição
variação.
354 Cha pte r T e n

O experimento estatisticamente projetado geralmente envolve a variação de duas


ou mais variáveis. simultaneamente e obtendo múltiplas medições sob a mesma
experiência mental condições. A vantagem de a abordagem estatística é tríplice:

1. As interações podem ser detectadas e medidas. A falha em detectar interações


é um principal falha em o OFAT abordagem.
2. Cada valor faz o trabalho de vários valores. Um experimento bem planejado
permite que você use a mesma observação para estimar vários efeitos
diferentes. Esse traduz diretamente custar poupança quando usando o
abordagem estatística.
3. O erro experimental é quantificado e usado para determinar a confiança
experimentador tem em suas conclusões.

Terminologia
Muito de o cedo trabalhar sobre o projeto de experimentos envolvido agrícola
estudos. O a linguagem do design experimental ainda reflete essas origens. A área
experimental foi literalmente um pedaço de chão. Um bloco era um pedaço menor de
solo com propriedades. Um lote era ainda menor e servia como a unidade básica do
projeto. Enquanto o trama era plantado, fertilizado e colhido, isto poderia ser dividir
simplesmente por desenho a linha. A tratamento era na verdade um tratamento, como
a aplicação de fertilizante. Infelizmente para o analista Seis Sigma, esses termos ainda
fazem parte da linguagem dos experimentos. O analista deve fazer o seu melhor para
entender a experiência de melhoria de qualidade usando estes termos. Natrella (1963)
recomenda a seguindo:
Experimental área pode ser pensamento de como o escopo de o planejado
experimentar. Para nós, a bloquear pode ser a grupo de resultados de a especial
operador, ou de a especial máquina, ou em um determinado dia - qualquer
agrupamento natural planejado que deve servir para fazer resultados de um bloquear
mais parecido que resultados de diferente blocos. Para nós, a tratamento é o fator que
está sendo investigado (material, condição ambiental, etc.) em um único fator tor
experimentar. Em fatorial experimentos (onde diversos variáveis são ser investigado
ao mesmo tempo) falamos de uma combinação de tratamento e queremos dizer o
prescrito níveis dos fatores a serem aplicados a uma unidade experimental. Para nós,
um rendimento é uma medida resultado e, felizmente, em química às vezes será um
colheita.

Definições
A projetado experimentar é um experimentar onde um ou mais fatores, chamado
independente variáveis que se acredita terem um efeito sobre o resultado
experimental são identificadas e manipulado de acordo com para a predeterminado
plano. Dados coletado de a projetado experiência- eu quis dizer pode ser analisado
estatisticamente para determinar o efeito de o independente variáveis, ou
combinações de mais de uma variável independente. Um plano experimental deve
também incluem disposições para lidar com variáveis estranhas, isto é, variáveis não
identificados explicitamente como variáveis independentes.
Variável de resposta—A variável que está sendo investigada, também chamada de
variável dependente capaz , às vezes chamado simplesmente resposta .
primário variáveis—O controlável variáveis acreditava maioria provável para ter
um efeito. Estes podem ser quantitativos, como temperatura, pressão ou velocidade,
ou podem ser qualitativo tal como vendedor, Produção método, e operador.
Analyze Phase 355
Variáveis de fundo—Variáveis, identificadas pelos projetistas do experimento,
qual poderia ter um efeito mas qualquer não pode ou deve não ser deliberadamente
manipulado
356 Cha pte r T e n

Interação presente não interação presente

B-Alta
B-Alta Soprar

Soprar

A-baixo Um alto A-baixo Um alto

F IGURA 10.24 Ilustração de interação.

ou mantido constante. O efeito das variáveis de fundo pode contaminar a variável


primária efeitos, a menos que sejam manuseados adequadamente. O método mais
comum de lidar com back- chão variáveis está bloqueando (o bloqueio é descrito
posteriormente neste capítulo).
Erro experimental - Em qualquer situação experimental, muitas variáveis podem
ser fontes potenciais de variação. Tantos, de fato, que nenhum experimento poderia
ser projetado que lida explicitamente com todas as fontes possíveis de variação. Essas
variáveis que não são considerados explicitamente são análogos a causas comuns de
variação. Eles representar o "barulho nível" de o processo e deles efeitos são mantido
de contaminando o primário variável efeitos por randomização . Randomization é a
prazo significou para descrever um procedimento que atribui unidades de teste a
condições de teste de tal forma que qualquer unidade dada tem uma probabilidade
igual de ser processado sob um determinado conjunto de teste condições.
Interação – Uma condição em que o efeito de um fator depende do nível de outro
fator. A interação é ilustrada na Fig. 10.24.

Características do projeto
Bons experimentos não acontecem simplesmente, eles são resultado de um
planejamento cuidadoso. Um bem experimental plano depende (Natrella 1963):

 O propósito do experimento
 Físico restrições sobre o processo de tirando Medidas
 Restrições imposto por limitações de tempo, dinheiro, material, e pessoal

O analista deve explicar claramente por que o experimentar é ser feito, por que o
experimentar mental tratamentos eram selecionado, e como o concluído experimentar
vai concluir o afirmou Objetivos. O experimental plano deve ser em escrita e isto deve
ser endossado por todos chave participantes. O plano vai incluir a declaração de o
Objetivos de o experimentar mento, os tratamentos experimentais a serem aplicados,
o tamanho do experimento, o tempo quadro, e a apresentação discussão de o métodos
para ser usado para analisar o resultados. Dois vigarista- conceitos são de especial
interesse para o Seis Sigma analista: replicação e Randomization.
Replicação — A coleção de mais que um observação para o mesmo definir de
experiência- imental condições. Replicação permite o experimentador para estimativa
experimental erro. Se variação existe quando todos experimental condições são
mantido constante, o causa deve ser algo outro que o variáveis ser controlada por o
experimentador. Experimental erro pode ser estimado sem replicando o inteiro
Analyze Phase 357
experimentar. Se a processo tem estive
358 Cha pte r T e n

no controle estatístico por um período de tempo, o erro experimental pode ser


estimado a partir do ao controle gráfico. A replicação também serve para diminuir
viés devido descontrolado fatores.
Randomização — Em ordem para eliminar viés de o experimentar, variáveis não
especifica- calmamente controlada como fatores deve ser randomizado. Esse significa
que alocações de espécimes para tratamentos deve ser feito usando alguns mecânico
método de Randomization, tal como a aleatório números mesa. Randomization também
Garantir válido estimativas de experimental erro.

tipos de Projeto
Os experimentos podem ser projetados para atender a uma ampla variedade de
objetivos experimentais. Um pouco de o mais comum tipos de projetos experimentais
são definidos aqui.
Modelo de efeitos fixos: Um modelo experimental onde todos os níveis de fator
possíveis são estudado. Por exemplo, se houver três materiais diferentes, todos os três
serão incluídos no experimentar.
Modelo de efeitos aleatórios: Um modelo experimental onde os níveis de fatores
avaliados comeu por o experimentar representar a amostra de todos possível níveis.
Para exemplo, se nós ter três materiais diferentes, mas use apenas dois materiais no
experimentar.
Misturado modelo: Um modelo experimental com ambos fixos e efeitos aleatórios.
Design completamente aleatório: Um plano experimental onde a ordem em que o
experimento é realizado é completamente aleatório, por exemplo,

Nível Sequência de teste Número


A 7, 1, 5
B 2, 3, 6
C 8, 4

Bloco randomizado projeto: Um experimental projeto é um onde o experimental


observações são dividido em “blocos” de acordo com para alguns critério. O blocos
são preenchido sequencialmente, mas o ordem dentro de o bloquear é preenchido
aleatoriamente. Para exemplo, presumir nós estamos realizando um teste de pintura
com diferentes materiais, material A e material B. ter quatro teste peças de cada
material. Idealmente nós seria como para limpar todos de o peças no ao mesmo
tempo, para garantir que o processo de limpeza não afete nossos resultados; mas e se
nosso teste exigir que usemos um tanque de limpeza que limpe duas peças de teste ao
mesmo tempo? tempo? O tanque carregar então torna-se a “bloqueando fator." Nós
vai ter quatro blocos, qual pode ficar assim:

Material Tanque Número da peça de


Carregar teste
A 1 7
B 1
B 2 5
A 2
B 3 3
A 6
Analyze Phase 359
B 4 4
A 8
360 Cha pte r T e n

Desde cada material parece exatamente uma vez por limpeza tanque carregar nós
dizer o projeto é equilibrado . O material totais ou médias pode ser comparado
diretamente. O leitor deve ser consciente que estatístico desenhos existir para lidar
mais complicado “desequilibrado desenhos”.
quadrado latino desenhos: Projetos onde cada tratamento parece uma vez e
apenas uma vez em cada linha e coluna. A quadrado latino plano é útil quando isto é
necessário ou desejável para permitir para dois específico fontes de não
homogeneidade em o condições afetando teste resultados. Tais projetos foram
originalmente aplicados em experimentos agrícolas quando os dois fontes de não
homogeneidade foram as duas direções no campo e o “quadrado” foi literalmente um
pedaço quadrado de chão. Seu uso foi estendido para muitas outras aplicações ções
onde há duas fontes de não homogeneidade que podem afetar Resultados para
exemplo, máquinas, posições, operadores, corre, e dias. A terceiro variável é então
associado com os outros dois de uma forma prescrita. O uso de quadrados latinos é
restrito por duas condições:

1. O número de linhas colunas e tratamentos devem todos ser o mesmo.


2. Lá deve ser não interações entre linha e coluna fatores.

Natrella (1963, pp. 13–30) fornece o seguindo exemplo de a latim quadrado.


Suponha nós desejar para comparar quatro materiais com respeito para deles vestindo
qualidades. Suponha pelagem- Além disso, temos uma máquina de teste de desgaste
que pode lidar com quatro amostras simultaneamente cuidadosamente. Duas fontes
de falta de homogeneidade podem ser as variações de corrida para corrida, e o
variação entre as quatro posições na máquina de desgaste. Nesta situação, um 4  4
latim quadrado nos permitirá permitir ambas as fontes de não homogeneidade se
pudermos fazer quatro corre. O latim quadrado plano é como em Figo. 10.25 (o quatro
materiais são rotulado A, B, C, D).
O procedimento para ser seguido em uso a dado latim quadrado é como segue:

1. Permutar as colunas aleatoriamente


2. Permutar o linhas aleatoriamente
3. Atribuir cartas aleatoriamente para o tratamentos

Um fator ANOVA
O exemplo a seguir será usado para ilustrar a interpretação de um único fator análise
de variação. Com a ampla disponibilidade de computadores, poucas pessoas
realmente ally executar tais cálculos complexos à mão. A análise abaixo foi feita
usando o Microsoft Excel. Métodos estatísticos comumente usados, como regressão e
ANOVA estão incluídos na maioria planilhas de ponta.
Os resultados codificados na Tabela 10.3 foram obtidos a partir de um único fator,
completamente randômico. experimento domizado, no qual as saídas de produção de
três máquinas (A, B e C) eram para ser comparado.

Posição número
Corr (1) (2) (3) (4)
er
1 A B C D
2 B C D A
3 C D A B
Analyze Phase 361
4 D A B C

F IGURA 10.25 A 4 × 4 latim quadrado.


362 Cha pte r T e n

A B C
4 2 −3
8 0 1
5 1 −2
7 2 −1
6 4 0

MESA _ 10.3 Experimental Cru Dados (Codificado)

ANOVA: SOLTEIRO FATOR

RESUMO
Grupos Contar Soma Média variância
A 5 30.000 6.000 2.500
B 5 9.000 1.800 2.200
C 5 −5.000 −1.000 2.500

ANOVA
Fonte de Variação SS df EM F P -valor F crítico
Entre grupos 124.133 2 62.067 25.861 0,000 3.885
Dentro de grupos 28.800 12 2.400
Total 152.933 14

MESA _ 10.4 Resultados de o Análise

Um ANOVA de esses resultados produzido o resultados mostrando em Mesa 10.4.


A primeira parte da Tabela 10.4 mostra estatísticas descritivas para os dados; o
analista deve sempre olhar com cuidado no esses facilmente entendido resultados
para verificar para obviamente ous erros. O resultados mostrar que o significa
variar de a baixo de −1 para máquina C para a alto de 6 para máquina A.

Procedimento ANOVA
ANOVA produto como segue:

1. Estado o nulo e alternativa hipóteses: o ANOVA mesa testes o hipótese- ses:


H 0 (todos significa são igual) contra H a (no ao menos dois de o significa são
diferente).
2. Escolher o nível de significado. Para esse análise a significado nível   0,05
Foi selecionado.
3. Calcular o F estatística, o razão de o significar quadrado entre grupos para
o significar quadrado dentro dos grupos.
Analyze Phase 363

4. Assumindo que as observações são amostras aleatórias de distribuição


normalmente populações utadas com variâncias iguais, e que a hipótese é
verdadeira, o crítico valor de F é encontrado em o Apêndice 5 ou 6. O
numerador vai ter o graus de liberdade mostrados na coluna de graus de
liberdade para o entre linha de grupos. O denominador terá os graus de
liberdade mostrados na graus de coluna da liberdade para o interior grupos
linha.
5. Se o F calculado > F 1−  então rejeitar a hipótese nula e concluir a alternativa
nate hipótese. Caso contrário, falha em rejeitar a hipótese nula.

A tabela ANOVA mostra que, para esses dados, o F calculado é 62,067/2,4 = 25.861
e F crítico em   0,05 com numerador df  2 e denominador df = 12 é 3,885.  Desde
25,861 > 3,885 rejeitamos a hipótese nula e concluímos que as máquinas produzem
diferente resultados. Observação que todos nós saber é que no ao menos o dois
extremo máquinas (A e C) são diferente. O ANOVA não _ dizer nós se A e B ou B e C
são significativamente dif- diferente. Existem métodos que podem fazer essa
determinação, como os contrastes . O o leitor é encaminhado para um texto sobre
planejamento de experimentos, por exemplo, Montgomery (1984) para informações
adicionais.

Atuando ANOVA manualmente


Sobre cru ocasiões (tal como tirando a Preto Cinto exame), o analista poderia
encontrar que computa- não estão disponíveis e a análise deve ser realizada
“manualmente”. A análise é ilustrado abaixo.

Total N Soma de
quadrados
Tratamento A 4, 8, 5, 7, 6 30 5 190
Tratamento B 2, 0, 1, 2, 4 9 5 25
Tratamento C −3, 1, −2, −1, 0 −5 5 15
Totais 34 15 230

(34) 2
Total soma de quadrado  230   152.933
15

(30) (9) ( (34)


Tratamento soma de 2 2  5) 
2
 124.133
quadrado  5
2
5 15
5

Soma de quadrados de erro  soma total dos quadrados − soma dos quadrados do tratamento
 152.933 − 124.133  28.8

Esses valores são colocada em o soma de quadrados (SS) coluna em o ANOVA


mesa (Mesa 10.4). O restante de o ANOVA mesa é obtido por divisão simples.

Exemplos de Aplicando Comum CORÇA Métodos Usando Programas


Esse seção inclui exemplos de o maioria comumente usado projeto de experimentar
met- ods usando Programas. Em qualquer momento possível o exemplos empregar
popular Programas, tal como

 Referindo-se para o crítico valor é na verdade desnecessário; o P -valor de 0,000 indica que o
364 Cha pte r T e n
probabilidade de obtendo um O valor F tão grande quanto o calculado é menor que 1 em 1.000.
Analyze Phase 365

Microsoft Excel. Para detalhado matemático fundo sobre esses métodos, o leitor é
referiu-se a qualquer um dos muitos bons livros sobre o assunto (por exemplo, Box et
al., 1978; Hicks, 1993; Montgomery, 1996). CORÇA PC, a cheio de recursos comercial
Programas para projeto e analis- sis de experimentos está disponível em
http://www.qualityamerica.com. Uma análise estatística O pacote shareware ysis para
sistemas operacionais Windows pode ser baixado em
http://www.dagonet.com/scalc.htm. MINITAB inclui CORÇA capacidades.

Bidirecional ANOVA com Não replica


Quando são conduzidos experimentos que envolvem dois fatores, e não é possível
obtivermos repita leituras para a dado definir de experimental condições, a
bidirecional análise de variância pode ser usada. O exemplo a seguir assume que os
tratamentos experimentais são atribuídos aleatoriamente. Observe que se os fatores
envolvidos forem testados cada um em apenas dois níveis, o método de análise
fatorial completo descrito abaixo também pode ser usado.

Exemplo de Bidirecional ANOVA com Não replica


Um experimento foi conduzido para avaliar o efeito de diferentes detergentes e água
temperaturas na limpeza de substratos cerâmicos. O experimentador selecionou três
diferentes detergentes com base em seus níveis de pH, e realizou uma série de
experimentos em quatro temperaturas de água diferentes. A limpeza foi quantificada
medindo o contaminação de um béquer de água destilada após o enxágue das partes
limpas com cada tratamento mento combinação. O dados codificados são mostrado
em Tabela 10.5.
Papel um de o excel saída (Mesa 10.6) fornece descritivo Estatisticas sobre o
diferente- ent tratamento níveis. O ANOVA mesa é mostrando em papel dois.
Observação que em o anteriormente apresentado cru dados mesa o linhas representar
o diferente temperaturas e o colunas os diferentes detergentes. Como não há réplicas,
o Excel não é capaz de fornecer uma estimativa da interação de detergente e
temperatura da água. Se você suspeitar que um interação pode estar presente, então
você deve tentar replicar o experimento para estimar este efeito. Para este
experimento, qualquer valor de P menor que 0,05 indicaria uma efeito. O ANOVA
mesa indica que lá são significativo diferenças entre o dif- diferente detergentes e o
diferente água temperaturas. Para identificar qual diferenças são significativo o
experimentador pode examinar os meios dos diferentes detergentes e temperaturas da
água usando t -testes. (O suplemento de ferramentas de análise de dados do Excel
inclui estes testes.) Esteja ciente de que o erro Tipo I é afetado pela realização de
vários testes t . Se o Tipo EU erro sobre a solteiro teste t é  , então o geral Tipo EU erro
para k tal testes é 1 − (1 −  ) k . Para exemplo, se   0,01 e três pares de significa são
examinado, então o combinado Tipo O erro I para todos os três testes t é 1 − (1 − 0,01) 3
 1 − (0,99) 3  0,03. Existem métodos estatísticos que garantem um nível geral de erro
Tipo I para comparações simultâneas (Hicks, 1973, pp. 31–38).

Detergente A Detergente B Detergente C


Frio 15 18 10
Legal 12 14 9
Esquentar 10 18 7
Quente 6 12 5

MESA _ 10.5 Limpeza Experimentar Cru Dados


360 Cha pte r T e n

RESUMO SAÍDA

Contar Soma Média variância


Frio água 3 43 4.333333 16.33333
Legal água 3 35 11.666667 6.333333
Esquentar 3 35 11.666667 32.33333
água
Quente água 3 23 7.6666667 14.33333

Detergente A 4 43 10.75 14h25


Detergente B 4 62 15,5 9
Detergente C 4 31 7,75 4.916667

ANOVA
Fonte de
variação SS df EM F valor P F crítico
Linhas 68 3 22.666667 8.242424 0,015043179 4.757055
colunas 122.1666667 2 61.083333 22.21212 0,001684751 5.143249
Erro 16.5 6 2,75
Total 206.6666667 11

MESA _ 10.6 Limpeza Experimentar Bidirecional ANOVA Saída de Microsoft excel (Dois Fatores sem
Replicação)

Bidirecional ANOVA com replica


Se você são investigando dois fatores qual poder interagir com um outro, e você pode
obtivermos mais que um resultado para cada combinação de experimental
tratamentos, então dois- análise de variância com réplicas pode ser usada para a
análise. planilhas tal como o Microsoft Excel incluem funções que realizam esta
análise.

Exemplo de Bidirecional ANOVA com replica


Um investigador está interessado em melhorar um processo de ligação fotorresistente
ao cobre vestido impresso o circuito Pranchas. Dois fatores são para ser avaliado: o
pressão usado para aplicar o fotoresistente material e o pré-aquecer temperatura de o
fotoresistente. Três diferente pressões e três temperaturas diferentes devem ser
avaliadas; o número de níveis não precisa ser o mesmo para cada fator e não há
restrição quanto ao número total de níveis. Cada experimental combinação de
variáveis é repetido 5 vezes. Observação que enquanto O Excel requer números iguais
de réplicas para cada combinação de tratamentos, a maioria pacotes de análise
estatística permitem que diferentes tamanhos de amostra sejam usados. O
experimentador registrou o número de defeitos fotorresistentes por lote de placas de
circuito impresso. O codificado os dados são mostrados em Tabela 10.7.
Esses dados foram analisados usando bidirecional do Excel ANOVA com replicas função.
O resultados são mostrando em Mesa 10.8.
Analyze Phase 361

Alto Pressão Med Pressão Baixo Pressão


Alto 39 32 18
temperatura 30 31 20
35 28 21
43 28 25
25 29 26
Med 38 10 22
temperatura 31 15 28
31 25 29
30 31 26
35 36 20
Baixo 30 21 25
temperatura 35 22 24
36 25 20
37 24 21
39 27 21

MESA _ 10.7 Fotoresistente Experimentar Cru Dados ANOVA Resultados

Como antes, a primeira parte da saída do Excel fornece estatísticas descritivas


sobre os diferentes níveis de tratamento ent. A tabela ANOVA é mostrada na parte
dois. Porque agora existem replica, o Excel é capaz de fornecer uma estimativa da
interação de pressão e temperatura perature. Para esse experimentar, o
experimentador decidiu que qualquer P -valor menos que 0,05 indicaria um efeito
significativo. O valor P da tabela ANOVA inferior a 0,001 indi- cates que lá são
significativo diferenças entre o diferente colunas (pressão), mas o P -valor de 0,6363
indica que lá é não a significativo diferença entre o linhas (temperatura). A interação
de pressão e temperatura também não é significativa, pois indicado por o P -valor de
0,267501.
Como o valor P indica que pelo menos uma diferença é significativa, sabemos que
o maior diferença de 34.26666667 − 23.06666667  11.2 é significativo. Para identificar
qual outro diferenças são significativo o experimentador pode examinar o significa de
o diferente pressões usando testes t . (do Excel dados análise ferramentas adicionar em
inclui esses testes.) Ser consciente que o erro Tipo I é afetado pela realização de
múltiplos t -testes. Se o erro Tipo I em um solteiro teste t é  , então o geral Tipo EU
erro para k tal testes é 1 − (1 −  ) k . Para exemplo, se   0,01 e três pares de significa
são examinado, então o combinado Tipo EU erro para todos três testes t é 1- (1 − 0,01)
3
 1 − (0,99) 3  0,03.

Completo e fracionário Fatorial


Completo fatorial experimentos são aqueles onde no ao menos um observação é obtido
para todo pos- possível combinação de experimental variáveis. Para exemplo, se A tem 2
níveis, B tem 3 níveis e C tem 5 níveis, a completo fatorial experimentar seria ter no ao
menos 2  3  5  30 observações.
362 Cha pte r T e n

RESUMO SAÍDA
Alto pressão Med pressão Baixo pressão Total
Alto temperatura
Contar 5 5 5 15
Soma 172 148 110 430
Média 34.4 29.6 22 28.66667
variância 50,8 3.3 11.5 46.66667
Med temperatura
Contar 5 5 5 15
Soma 165 117 125 407
Média 33 23.4 25 27.13333
variância 11.5 117.3 15 59.98095
Baixo temperatura
Contar 5 5 5 15
Soma 177 119 111 407
Média 35.4 23.8 22.2 27.13333
variância 11.3 5.7 4.7 43.26667
Total
Contar 15 15 15
Soma 514 384 346
Média 34.26666667 25.6 23.06666667
variância 22.06666667 44.68571429 10.92380952
ANOVA
Fonte de
variação SS df EM F valor P F crítico
Amostra 23.5111111 2 11.7555556 0,45781 0,6363 3.259444
colunas 1034.84444 2 517.422222 20.1506 1.34E-06 3.259444
Interação 139.555556 4 34.8888889 1.35872 0,267501 2.633534
Dentro de 924,4 36 25.6777778
Total 2122.31111 44

MESA _ 10.8 Fotoresistente Experimentar Bidirecional ANOVA Saída de Microsoft excel (Dois fatores com
Replicação)

Fatorial fracionário ou replicação fracionária são experimentos onde existem alguns


binações de experimental variáveis onde observações eram não obtido. Tal
experimentos podem não permitir a estimativa de todas as interações. No entanto,
quando o cuidado totalmente planejado, o experimentador muitas vezes pode obter
todas as informações necessárias de uma só vez. significativo economizando.
Analyze Phase 363

Analisando Fatorial experimentos


Existe um método simples para analisar o experimento 2 n comum . O método, conhecido
como o método de Yates, pode ser facilmente executado com uma calculadora de
bolso ou programada em a planilha. Isto pode ser usado com qualquer
apropriadamente projetado 2 n experimentar, sem considerar do número de fatores
que estão sendo estudados.
Para usar o Yates algoritmo, o dados são primeiro arranjado em padrão ordem (de
curso, a ordem de execução real é aleatória). O conceito de ordem padrão é mais fácil
de entender permanecer se demonstrado. Suponha que tenhamos conduzido um
experimento com três tores, A, B, e C. Cada de o três fatores é avaliado no dois níveis,
qual nós vai chamar baixo e alto. A fator mantido em um baixo nível vai ser
identificado com a “-” sinal, um mantido no um nível alto será identificado com um
sinal “  ”. As oito combinações possíveis do três fatores são identificados usando o
esquema mostrando no mesa abaixo.

EU IA A B C
(1) − − −
a  − −
b −  −
ab   −
c − − 
ac  − 
bc −  
abc   

Observe que a tabela começa com todos os fatores em seu nível baixo. Em seguida,
o primeiro fator é alto e todos os outros são baixos. Quando um fator é alto, ele é
mostrado na coluna ID, caso contrário sábio não é. Por exemplo, sempre que a
aparece, indica que o fator A está em seu máximo nível. Para completo o mesa você
simplesmente observação que como cada fator é adicionado para o mesa isto é
"multiplicado" por cada precedente linha. Por isso, quando b é adicionado isto é
multiplicado por um , dando o linha ab . Quando c é adicionado isto é multiplicado
por, em ordem, um , b , e ab , dando o permanecer- linhas na tabela. (Como exercício, o
leitor deve adicionar um quarto fator D ao tabela acima. Dica: o resultado será uma
tabela com mais oito linhas.) Depois que os dados estiverem padrão ordem, adicionar
a coluna para o dados e um adicional coluna para cada variável, para Por exemplo,
para nossas três variáveis, adicionaremos quatro colunas.

EU IA A B C Dados 1 2 3
(1) − − −
a  − −
b −  −
ab   −
c − − 
ac  − 
bc −  
364 Cha pte r T e n
abc   
Analyze Phase 365

Registre as observações na coluna de dados (se o experimento foi replicado,


registro o totais). Agora registro o soma de o dados valores em o primeiro dois linhas
que é, (1)
 a em o primeiro célula de o coluna rotulado coluna 1. Registro o soma de o próximo
dois linhas na segunda célula (isto é, b  ab ). Continue até que a metade superior da
coluna 1 esteja concluída. A metade inferior da coluna 1 é completada subtraindo uma
linha da próxima, para Por exemplo, o quinto valor na coluna 1 é encontrado
subtraindo −5 − 2 = −3. Depois de completa- ing coluna 1 o mesmo processo é
concluído para coluna 2, usando o valores em coluna 1. Coluna 3 é criada usando os
valores em coluna 2. O resultado é mostrando abaixo.

EU IA A B C Dados 1 2 3
(1) − − − 2 7 21  17
a  − − 5 28  38  15
b −  15  29 5 55
ab   − 13 9  10 1
c − −   12 3 35  59
e  −   17 2 20 5
bc −   2 5 1  15
abc    7 5 0 1

Exemplo de Yates Método


O mesa abaixo shows amostra dados de um real experimentar. O experimentar
envolvido um atirador de alvo tentando melhorar o número de alvos atingidos por
caixa de 25 tiros. Três variáveis estavam envolvidas: a  o calibre da espingarda
(calibre 12 e calibre 20), b  o tomada tamanho (6 tomada e 8 tomada), e c  o
comprimento de o lidar sobre o alvo atirador (curto ou longo). O atirador corrido o
experimentar duas vezes. O coluna rotulado “1º” é o número de exitos o primeiro
tempo o combinação era testado. O coluna rotulado “2º” é o número de acertos na
segunda tentativa da combinação. A análise de Yates começa com a somas mostradas
na coluna denominada Soma.

EU IA 1º 2º Soma 1 2 3 Efeito df SS EM F
Razão
1 22 19 41 86 167 288 18 média
a 21 24 45 81 121 20 2.5 1 25h00 25h00 3,64
b 20 18 38 58 9 0 0 1 0,00 0,00 0,00
ab 21 22 43 63 11 4 0,5 1 1,00 1,00 0,15
c 12 15 27 4 5  46  5,75 1 132,25 132,25 19.24
ac 12 19 31 5 5 2 0,25 1 0,25 0,25 0,04
bc 13 15 28 4 1 10 1.25 1 6.25 6.25 0,91
abc 20 15 35 7 3 2 0,25 1 0,25 0,25 0,04
Erro 8 55,00 6.88
Total 141 147 15 220,00
366 Cha pte r T e n

A primeira linha na coluna Effect é simplesmente a primeira linha da coluna 3


(288) dividida por o contar ( r  2n ) ; esse é simplesmente o média. Subseqüente linhas
em o Efeito coluna são encontrado por dividindo o números em coluna 3 por r  2 n
−1
. O Efeito coluna fornece o impacto de o dado fator sobre o resposta; por isso, o
atirador bater, sobre média, 2.5 mais alvos por caixa quando tiroteio a calibre 12 que
ele fez quando tiroteio a calibre 20.
A próxima pergunta é se essas diferenças são ou não estatisticamente
significativas, que é, poderia eles ser devido para chance sozinho? Para responder
esse pergunta nós vai usar o F razão do efeito MS para cada fator para o erro MS. Os
graus de liberdade (df) para cada efeito é simplesmente 1 (o número de fator níveis
menos 1), o total df é N − 1, e o erro df é o total df menos o soma de o fator dfs . O
soma de quadrados (SS) para cada fator é o coluna 3 valor quadrado dividido por r 
2n ; _ para exemplo., SS A  20 2/16 _  25.
O total SS é o soma de o Individual valores quadrado menos o primeiro linha em coluna
3 quadrado dividido por r  2n ; _ para exemplo,
288 2
(22 2  21 2  ⋯  15 2 )   220
16

O erro SS é o total SS menos o fator SS . O EM e F colunas são calculado usando o


mesmo abordagem como mostrando acima para Mão Única ANOVA. Para o
exemplo o A razão F para o fator c (arremessador) é significativa em  < 0,01 e a razão
F para o fator a (medidor) é significativo em  < 0,10; nenhuma outra razão F é
significativa.
Triagem Experimentos. Em muitos casos, lá são a suficiente número de variáveis
para fazer até mesmo um planejamento fatorial fracionário, com interações, ser bem
grande. Naqueles casos, um desenho de triagem é útil como uma passagem inicial
para filtrar fatores que são altamente insignificante.
Considere este exemplo de defeitos de solda na fabricação de eletrônicos. a solda
A equipe decidiu listar o máximo possível de itens que podem estar causando
problemas de solda. Como muitas variáveis já haviam sido estudadas em partes
anteriores do projeto, a lista era não irracionalmente longo. O equipe visto no
caminhos para ao controle o variáveis listado e foi capaz de desenvolver métodos para
eliminar os efeitos de muitas variáveis em sua lista. O lista restante incluiu os
seguintes fatores:

Variável Baixo Nível (-) Alto Nível (+)


A: Pré-cozimento de Pranchas em um Não Sim
forno
B: pré-aquecer tempo 10 s 20 s
C: pré-aquecer temperatura 150  F 200  F
D: Distância do elemento de pré- 25 cm 50 cm
aquecimento até quadro superfície
E: Linha velocidade 3 fpm 5 fpm
F: Solda temperatura 495  F 505  F
G: O circuito densidade Baixo Alto
H: Era o quadro em a fixação? Não Sim

Esta informação foi usada para criar um projeto experimental usando um software
Analyze Phase 367
estatístico louça pacote. Lá são muitos pacotes sobre o mercado que executar
semelhante análises para o um mostrado aqui.
368 Cha pte r T e n

Correr A B C D E F G H Resposta
1  − − − −    65
2  −   −  − − 85
3   − −   − − 58
4 −  − −  −   57
5 − − − − − − − − 63
6         75
7 −  −  −   − 77
8 −   − −  −  60
9  −  −  − −  67
10    − − −  − 56
11 − −  −    − 63
12 − − −    −  81
13   −  − − −  73
14  − −   −  − 87
15 −     − − − 75
16 − −   − −   84

TABELA 10.9 _ Triagem Experimentar Disposição. Dados Matriz (Randomizado)

Desde esse é apenas para ser a triagem experimentar, o equipe era não interessado
em obtivermos- estimativas de interações de fatores. O foco era identificar efeitos
principais importantes. O Programas permite seleção de entre diversos projetos. O
Preto Cinto decidiu sobre o projeto que estimaria os principais efeitos com o menor
número de testes unidades. Esse projeto envolvido testando 16 unidades. O dados
matriz produzido por o computador é mostrado na Tabela 10.9. A ordem de execução
foi aleatória pelo computador. Se o experimentar não pode ser conduzido em que
especial ordem, o computador Programas seria permitir que os dados sejam
executados em blocos e ajustar a análise de acordo. O programa também nos diz que o
projeto é de resolução IV, o que significa que os principais efeitos são não confundidos
entre si ou quaisquer interações de dois fatores.
Na Tabela 10.9 o “–” indica que a variável é executada em seu nível baixo,
enquanto um “  ” sinal indica que ele deve ser executado em seu nível alto. Por
exemplo, a unidade para a execução 16 foi processado do seguinte modo:

 Pré-cozimento  Não
 pré-aquecer tempo  10 segundos
 pré-aquecer temperatura  200  F
 Distância de pré-aquecer elemento para quadro superfície  50 cm
 Velocidade da linha  3 fpm
 Solda temperatura  495  F
Analyze Phase 369

Gráfico de probabilidade normal dos


resíduos (Resposta é defeitos)
1,5

1,0

0,5
Normal score

0,0

–0,5

–1,0

–1,5

–1 012
Padronizado residual

F IGURA 10.26 Resíduos do modelo experimental.

 O circuito densidade  Alto


 Fixação usado  Sim
 Defeitos por unidade padrão  84

Experimental dados eram coletado usando o randomizado correr ordem recom-


consertado por o Programas. O "resposta" coluna são dados que eram gravado em
termos de juntas de solda defeituosas por “unidade padrão”, onde uma unidade
padrão representa enviou uma placa de circuito com um número médio de juntas de
solda.  Os resultados são mostrados em Mesa 10.10.
Um modelo que ajustasse bem os dados produziria resíduos que caíssem ao longo
de uma linha reta. linha. O Black Belt concluiu que o ajuste do modelo era adequado.
O análise indica que fatores B (pré-aquecer tempo) e D (distância de pré-aquecer
ele- mento para quadro superfície) produzir significativo efeitos. Figura 10.26 shows a
normal probabilidade trama de o experimental efeitos. Esse figura parcelas o
coeficientes coluna de Mesa 10.10 sobre a normal probabilidade escala. Se o fator de
efeito era devido para chance variação isto seria trama fechar para o linha
representando normal variação. Em Figo. 10.27 o efeitos de B e D são mostrando para
ser avançar de o linha que pode ser contabilizado para por aleatório variação.
Os efeitos dos fatores significativos são representados graficamente em unidades
de resposta na Fig. 10.27. Desde o resposta é a defeito contar, o gráfico indica que
o baixo nível de fator
D dá melhores resultados, enquanto o alto nível do fator B dá os melhores resultados.
Isso pode também ser visto por exame de o coeficientes para o variáveis. Quando D é
baixo o aver- a taxa de defeitos por idade é de 18,5 defeitos por unidade melhor do
que quando D é alto; quando B é alto o média taxa de defeito são 8 defeitos por
unidade melhor do que quando B é baixo.

 Tecnicamente, a Poisson modelo seria ser o correto escolha aqui. No entanto, usar de a normal
modelo, qual o análise assume, é razoavelmente preciso para defeito conta de esse magnitude. O
equipe também avaliado o variação, mais especificamente, o registro de o variância. O variações no
cada fator combinação fez não diferir significativamente e não são mostrados aqui.
370 Cha pte r T e n

Normal probabilidade trama de o padronizado efeitos


(Resposta é defeitos, Alfa = 0,10)

1,5 B

1,0

0,5
Normal score

0,0

–0,5

–1,0

–1,5 D

–15 –10–505
Padronizado efeito

F IGURA 10.27 significativo fator efeitos.

Estimado efeitos e coeficientes para resposta (codificado unidades)

Prazo Efeito Coef StDev coef T P


Constante 70.375 0,6597 106,67 0,000
A −0,750 −0,375 0,6597 −0,57 0,588
B 8.000 4.000 0,6597 6.06 0,001
C −0,500 −0,250 0,6597 −0,38 0,716
D −18.500 −9.250 0,6597 −14.02 0,000
E 0,000 0,000 0,6597 0,00 1.000
F −0,250 −0,125 0,6597 −0,19 0,855
G −0,250 −0,125 0,6597 −0,19 0,855
H 0,250 0,125 0,6597 0,19 0,855

ANOVA para defeitos (codificado unidades)


Fonte de
variação df Seq. SS Adj. SS Adj. EM F valor P
Principal efeitos 8 1629,00 1629,00 203.625 29.24 0,000
Residual erro 7 48,75 48,75 6.964
Total 15 1677,75

MESA _ 10.10 Resultados de Experimental Dados Análise. fracionário fatorial ajustar


Analyze Phase 371

A equipe se reuniu para discutir esses resultados. Eles decidiram definir todos os
fatores que não foram encontrado estatisticamente significativo para os níveis que
custam menos para operar, e fac- tores B e D no deles pontos médios. O processo
seria ser monitorou no esses configurações para um tempo para determinar se os
resultados eram semelhantes ao que a equipe esperava com base em a análise
experimental. Enquanto isso era feito, outra série de experimentos ser planejado para
explorar ainda mais os efeitos significativos descobertos pela experiência de triagem
eu quis dizer.
Com base no experimento de triagem, o modelo linear para estimar a taxa de
defeitos era encontrado de os coeficientes em Tabela 10.10 a ser

Defeito avaliar = 70.375 + 4B  9.25D

Poder e Amostra Tamanho


O prazo poder de a estatístico teste refere-se para o probabilidade que o vai liderar
para corretamente rejeitar uma falsa Hipótese Nula, ou seja, 1−  , onde beta é a
probabilidade de não conseguir rejeitar a falsa hipótese nula. Geralmente, o poder de
um teste estatístico é melhorado quando:

 Lá é a grande diferença entre o nulo e alternativa condições,


 O sigma da população é pequeno,
 O amostra tamanho é grande; ou,
 O significado (  ) é grande.

Muitos pacotes de software estatístico fornecem cálculos de potência e tamanho


da amostra. do Minitab Poder e Amostra Tamanho opção em o Estado cardápio pode
estimativa esses para a variedade de formatos de teste.

Exemplo
Considere um teste ANOVA unidirecional da hipótese de que quatro populações têm
igual significa. A amostra de n  5 é levado de cada população cujo histórico padrão
devi- ação é 2.0. Se estivermos interessados em detectar uma diferença de 3 unidades
nas médias, o o software pode estimar o poder do teste depois de completar o poder e
o tamanho da amostra para ANOVA unidirecional diálogo caixa como:

 Número de níveis: 4
 Tamanhos de amostra: 5
 valores de o máximo diferença entre significa: 3
 Padrão desvio: 2
 Significado nível (no Diálogo de opções) : 0,05

O probabilidade o suposição de igual significa é rejeitado é encontrado para ser


sobre 39% em esse caso. Observação que se o amostra tamanho é aumentou para 10 o
poder é melhorou para 77%.

teste Comum Premissas


Muitos testes estatísticos são válidos apenas se certas suposições subjacentes forem
atendidas. Na maioria casos, esses premissas são afirmou em o estatístico livros
didáticos junto com o descrições
370 Cha pte r T e n

de o especial estatístico técnica. Esse capítulo descreve alguns de o mais comum


premissas encontrado em Seis Sigma projeto trabalhar e como para teste para eles. No
entanto, o assunto de testando subjacente premissas é a grande um e você poder
desejar para explorar ainda mais com um Master Black Belt.

Contínuo contra Discreto Dados


Os dados vêm em dois tipos básicos: contínuos e discretos, conforme discutido no
Cap. 7. Para análise o básico ideia, contínuo dados são números que pode ser expresso
para qualquer desejado nível de precisão, pelo menos em teoria. Por exemplo, usando
um termômetro de mercúrio, posso dizer que a temperatura é de 75 graus Fahrenheit.
Com um termômetro digital doméstico eu poderia dizer isso é 75,4 graus. A clima
escritório instrumento poderia adicionar adicional decimal lugares. Dados discretos
só podem assumir determinados valores. Por exemplo, o número de contagem bers
pode apenas ser inteiros. Alguns enquete respostas força o respondente para escolher
a par- articulado número de uma lista (escolha um avaliação em uma escala de 1 a 10).
Alguns testes estatísticos assumem que você está trabalhando com dados
contínuos ou dados de creta. Por exemplo, ANOVA assume que dados contínuos
estão sendo analisados, enquanto o qui-quadrado e a análise de correspondência
assumem que seus dados são contagens. Em em muitos casos, os testes são insensíveis
a desvios da suposição de tipo de dados. Para exemplo, despesas pode apenas ser
expresso para dois decimal lugares (dólares e centavos), mas eles podem ser tratados
como se fossem dados contínuos. As contagens geralmente podem ser tratadas como
dados contínuos se houver muitas contagens diferentes no conjunto de dados. Por
exemplo, se o dados são defeito conta variando de 10 para 30 defeitos com todos 21
conta mostrando acima em o dados (10, 11, 12, 28, 29, 30).

Você tem dados discretos, mas precisa de dados contínuos Em alguns casos, no entanto,
o tipo de dados assuntos. Para exemplo, se discreto dados são traçado sobre ao controle
gráficos pretendido para continua- dados, os cálculos do limite de controle estarão
incorretos. Executar testes e outros não paramétrico testes vai também ser afetado por
esse. O problema de “discretizado” dados é muitas vezes causado pelo
arredondamento dos dados para poucas casas decimais quando eles são registrados.
Esse o arredondamento pode ser causado por humanos ou pode ser um programa de
computador que não está gravando ou exibindo dígitos suficientes. A solução simples
é gravar mais dígitos. O problema pode ser causada por um sistema de medição
inadequado. Esta situação pode ser identificada por uma análise do sistema de
medição (ver Cap. 9). O problema pode ser facilmente detectado por criando um
gráfico de pontos dos dados.

Você Ter Contínuo Dados Mas Precisar Discreto Dados vamos dizer você querer para
determinar se a experiência do operador tem um impacto sobre os defeitos. Uma
maneira de analisar isso é usar um técnica como análise de regressão para regredir X
 anos de experiência em Y  defeitos. Outra seria realizar uma análise qui-quadrado
dos defeitos por nível de experiência. Para fazer esse você precisar para colocar o
operadores em discreto categorias, então analisar o defeitos em cada categoria. Isso
pode ser feito “discretizando” a variável de experiência. Para exemplo, você pode
criar o seguinte categorias discretas:

Experiência (anos) Experiência Categoria


Menos que 1 Novo
1 para 2 Moderadamente com
Analyze Phase 37
experiência 1
3 para 5 Com experiência
Mais que 5 Muito com experiência
372 Cha pte r T e n

Os dados recém-classificados agora são adequados para análise qui-quadrado ou


outras tecnologias. niques que requerem dados discretos.

Independência Suposição
A independência estatística significa que dois valores não estão relacionados entre si.
em outro palavras, sabendo o que um valor fornece não Informação como para o que
o outro valor é. Se você jogar dois dados e eu disser que um deles é um 4, essa
informação não ajudá-lo a prever o valor do outro dado. Muitas técnicas estatísticas
assumem que os dados são independentes. Por exemplo, se um modelo de regressão
ajusta os dados adequadamente, então o resíduos vai ser independente. Ao controle
gráficos presumir que o Individual os valores dos dados são independentes; ou seja,
saber o diâmetro do pistão 100 não ajuda me prediz o diâmetro do pistão 101, nem me
diz qual o diâmetro do pistão 99 foi. Se eu não tiver independência, os resultados da
minha análise estarão errados. Eu vou acreditam que o modelo se ajusta aos dados
quando isso não acontece. vou adulterar o controlado processos.
A independência pode ser testada de várias maneiras. Se os dados estiverem
normais (testando o normalidade suposição é discutido abaixo) então o correr testes
descrito para ao controle gráficos pode ser usado.
A espalhar trama pode também ser usado. Deixar y  Xt - 1 e trama x contra Y. _
Você vai ver aleatório padrões se os dados forem independentes. Softwares como o
Minitab oferecem várias formas de examinando a independência em dados de séries
temporais. Nota: falta de independência nas séries temporais dados é chamado
autocorrelação .
Se você não tem independência, você tem várias opções. Em muitos casos, o
melhor curso de ação é identificar o motivo pelo qual os dados não são independentes
e corrigir o causa subjacente. Se os resíduos não forem independentes, adicione
termos ao modelo. Se o processo está flutuando, adicione ajustes de compensação.
Se corrigir a causa raiz não for uma opção viável, uma alternativa é usar uma
estatística técnica que responde pela falta de independência. Por exemplo, o controle
EWMA gráfico ou a tempo Series análise que pode modelo autocorrelacionado dados.
Outro é para modificar o técnica para trabalhar com seu autocorrelacionado dados, tal
como usando inclinado ao controle lim- está na carta de controle. Se os dados forem
cíclicos, você pode criar dados não correlacionados usando um amostragem intervalo
igual para o ciclo comprimento. Para exemplo, você pode criar a ao controle gráfico
comparando o desempenho nas manhãs de segunda-feira.

Normalidade Suposição
estatístico técnicas tal como testes t , testes Z , ANOVA, e muitos outros presumir que o
dados são no ao menos aproximadamente normal. Esse suposição é facilmente testado
usando Programas. Lá são dois abordagens para testar normalidade: gráfica e
estatístico.

Avaliação Gráfica da Normalidade Uma abordagem gráfica envolve traçar um histograma


dos dados, sobrepondo uma curva normal sobre o histograma. Esta abordagem
funciona melhor se você ter no ao menos 200 dados pontos, e o mais o mais alegre.
Para pequeno dados conjuntos o interpretação de o histograma é difícil; o habitual
problema é vendo a falta de ajuste quando nenhum existe. De qualquer forma, a
interpretação é subjetiva e muitas vezes duas pessoas alcançar diferente conclusões
quando vendo o mesmo dados. Figura 10.28 shows quatro histo- gramas para dados
normalmente distribuídos com média  10, sigma = 1 e tamanhos de amostra variaram
ing de 30 a 500.
Um alternativa para o histograma/normal curva abordagem é para calcular a
Analyze Phase 37
"qualidade de ajuste" estatística e a P -valor. Esse dá um inequívoco aceitação critério; 3
geralmente o investigador rejeita o suposição de normalidade se P < 0,05.
374 Cha pte r T e n

F IGURA 10.28 Histogramas com normal curvas para diferente amostra tamanhos.

No entanto, isto tem o desvantagem de ser não gráfico. Esse viola o três regras de
dados análise:

1. Trama os dados
2. Trama os dados
3. Trama os dados

Para evitar violando esses importante regras, o habitual abordagem é para


suplemento a análise estatística com um gráfico de probabilidade. O gráfico de
probabilidade é dimensionado de modo que os dados normalmente distribuídos serão
plotados como uma linha reta. A Figura 10.29 mostra o problema gráficos de
habilidade que correspondem aos histogramas e curvas normais na Fig. 10.28. O mesa
abaixo Figo. 10.29 shows que o valores P são todos confortavelmente acima 0,05,
liderar- ing nós para concluir que o dados são razoavelmente fechar para o normal
distribuição.

N 30 100 200 500


P -Valor 0,139 0,452 0,816 0,345

O que para Fazer Se o Dados não são Normal Quando dados são não normal, o seguindo
passos são geralmente perseguido:

 Fazer nada - Frequentemente o histograma ou probabilidade trama shows


que o normal modelo encaixa o dados bem "onde isto conta”. Se o primário
Analyze Phase 37
interesse é em o caudas, 5
376 Cha pte r T e n

F IGURA 10.29 Normal probabilidade parcelas e bondade de encaixar testes.

para exemplo, e o curva encaixa o dados bem lá, então Continuar para usar o
nem- mal modelo apesar de o facto que o P -valor é menos que 0,05. Ou se o
modelo encaixa o meio de o distribuição bem e isso é seu foco, ir com isto. Da
mesma maneira, se você tem uma amostra muito grande, você pode obter
valores- P maiores que 0,05 mesmo embora o modelo pareça se encaixar bem
em todos os lugares . Eu trabalho com clientes que analise rotineiramente
conjuntos de dados de 100.000  registros. Amostras deste tamanho
sinalizarão funcionalmente e economicamente sem importância Partidas de
normalidade como “estatisticamente significativo”, mas não vale a pena gastar
tempo ou dinheiro para fazer qualquer coisa sobre isso.
 Transformar os dados — Muitas vezes é possível tornar os dados normais
executando uma operação matemática sobre os dados. Por exemplo, se a
distribuição de dados tiver caudas muito longas para o lado alto, tirar o
logaritmo geralmente cria dados que são distribuído normalmente. O recurso
de gráfico de controle do Minitab oferece o padrão Box-Cox malizando poder
transformação que funciona com muitos dados distribuições encontrado em
Seis Sigma trabalhar. O desvantagem para transformando é que dados ter
para ser devolvida para o original medição escala antes ser apresentado para
não- Pessoal técnico. Algumas estatísticas não podem ser retornadas
diretamente ao seu original unidades; para exemplo, se você usar o registro
transformar então você não pode encontrar o significar de o original dados
por tirando o inverso registro de o significar de o transformado dados.
 Usar médias — As médias são um tipo especial de transformação porque as
médias de subgrupos sempre tratar para ser normalmente distribuído, até se
o subjacente
Analyze Phase 37
7
dados não são. Às vezes, os tamanhos dos subgrupos necessários para atingir
a normalidade podem ser bem pequeno.
 Ajustar outro estatístico distribuição —A normal distribuição não é o apenas jogo
em cidade. Tente ajustar outras curvas aos dados, como a Weibull ou a
exponencial. cial. Maioria Estatisticas pacotes, tal como Minitab, ter o
habilidade para fazer esse. Se você ter a jeito para programação planilhas,
você pode usar do Excel solucionador adicionar em para avaliar o ajuste de
várias distribuições.
 Usar a não paramétrico técnica —Ali são estatístico métodos, chamado não-
métodos paramétricos, que não fazem nenhuma suposição sobre o subjacente
distribuição dos dados. Em vez de avaliar as diferenças de parâmetros como
média ou variância, métodos não paramétricos usam outras comparações. Por
exemplo, se as observações forem pareadas, elas podem ser comparadas
diretamente com veja se o depois é diferente do antes. Ou o método pode
examinar o padrão de pontos acima e abaixo o mediana para ver se o antes e
depois val- ues são espalhados aleatoriamente nas duas regiões. Ou as
classificações podem ser analisadas. Não paramétrico estatístico métodos são
discutido mais tarde em esse capítulo.

Igual variância Suposição


Muitas técnicas estatísticas assumem variâncias iguais. ANOVA testa a hipótese de
que as médias são iguais, não que as variâncias sejam iguais. Além de assumir a
normalidade, ANOVA assume que as variâncias são iguais para cada tratamento.
Modelos ajustados por regressão sion análise são avaliado parcialmente por olhando
para igual variações de resíduos para diferente- níveis ent de Xs e Y. _
O teste do Minitab para variâncias iguais é encontrado em Stat > ANOVA > Test
for Equal Variações. Você precisa de uma coluna contendo os dados e uma ou mais
colunas especificando- ing o fator nível para cada dados apontar. Se o dados ter já
passado o normal- teste de qualidade, use o valor- P do teste de Bartlett para testar a
suposição de variâncias iguais. Caso contrário, use o valor P do teste de Levene. O
teste mostrado na Fig. 10.30 envolveu cinco fator níveis e MinitabName shows a
confiança intervalo bar para sigma de cada de as cinco amostras; a marca no centro
da barra representa o sigma da amostra. Estes são os dados da amostra de 100
analisados anteriormente e considerados normalmente distribuído, então o teste de
Bartlett pode ser usado. O valor P do teste de Bartlett é 0,182, indicando que nós pode
esperar esse muito variabilidade de populações com igual variações de 18,2% do
tempo. Como isso é maior que 5%, deixamos de rejeitar o valor nulo hipótese de igual
variações. Tive o dados não estive normalmente distribuído nós teria usado o teste de
Levene, que tem um valor P de 0,243 e leva ao mesmo conclusão.

Linear Modelo Suposição


Muitos tipos de associações são não lineares. Por exemplo, em um determinado
intervalo de valores x , y poder aumentar, e para outro x valores, y poder diminuir.
Esse curvilíneo relação é mostrado na Fig. 10.31.
Aqui vemos que y aumenta quando x aumenta e é menor que 1, e diminui quando
x aumenta quando x é maior que 1. As relações curvilíneas são valiosas no projeto de
robusto sistemas. A largo variedade de processos produz tal relacionamentos.
Muitas vezes é útil converter essas formas não lineares em forma linear para
análise usando padrão computador programas ou científico calculadoras. Diversos tal
transformações são mostrando na Tabela 10.11.
378 Cha pte r T e n

Teste para igual variações


95% confiança intervalos para Fator sigmas níveis

1
teste de Bartlett

Teste estatística:
2
6.233
Valor P : 0,182

4 de Levene teste

Estatística de teste: 1.391


Valor P : 0,243
5

0,5 1.01.52.0

F IGURA 10h30 Saída de do Minitab teste para igual variações.

12

10

Y6

0
0 1234
x

F IGURA 10.31 dispersão diagrama de a curvilíneo relação.


Analyze Phase 37
9
Converter Direto
Linha Constantes
Trama o ( B 0 E B1 ) _ para
Se o Relação É de o transformado Variáveis Original Constantes
Forma: YT XT _ b0 b1
b 1
Y a Y a b
x x
1 1
 um  x a b
bX Y Y

x x a b
Y  a  bX x
Y
Y  ab x registro Y x registro registro b
a
Y  você bx registro Y x registro b registro e
a
Y  aX b registro Y registro x registro b
a
Y  a  bX n
Y xn a b
onde n é conhecido

(De Natrella (1963), pp. 5–31)


MESA _ 10.11 Alguns Linearizando Transformações

Ajuste a linha reta Y T  b 0  b 1 X T usando os procedimentos de regressão linear


usuais (consulte abaixo). Em todas as fórmulas, substitua Y T por Y e X T por X . Um
método simples para selecionar uma transformação é simplesmente programar a
transformação em uma planilha e executar regressões usando todo transformação.
Então selecionar o transformação qual dá o maior valor para a estatística R 2 .
Existem outras maneiras de analisar respostas não lineares. Um método comum é
divida a resposta em segmentos que são lineares por partes e, em seguida, analise
cada peça separadamente. Por exemplo, na Fig. 10.31 y é aproximadamente linear e
crescente ao longo do intervalo 0 < x < 1 e linear e decrescente ao longo do intervalo x
> 1. Claro, se o analista tem acesso para poderoso estatístico Programas, não linear
formulários pode ser analisado diretamente.

Análise de Categórico Dados


Fazendo Comparações Usando qui-quadrado testes
Em Seis Sigma, lá são muitos instâncias quando o analista quer para comparar o por
cento- idade de Unid distribuído entre diversos categorias. O coisas poder ser
operadores, met- ods, materiais ou qualquer outro agrupamento de interesse. De cada
um dos grupos é retirada uma amostra tomadas, avaliadas e colocadas em uma das
várias categorias (por exemplo, alta qualidade, marginal qualidade, rejeitar
qualidade). O resultados pode ser apresentado como a mesa com m linhas
representando os grupos de interesse e k colunas representando as categorias. Tais
380 Cha pte r T e n
tabelas podem ser analisados para responder à pergunta “Os grupos diferem quanto à
proporção de Unid nas categorias?” A estatística qui-quadrado pode ser usado para
este fim.
Analyze Phase 38
1
Exemplo de qui-quadrado Teste
O seguindo exemplo é de Natrella (1963):
Os rejeitos de peças fundidas foram classificados por causa de rejeição para três
diferentes semanas, conforme tabela a seguir. A pergunta a ser respondida é: Será que
o distribuição de rejeições diferem de semana para semana?

Causa de Rejeição
Areia Corrida Mudan Derrub Corebreak Quebrad Outro Total
errada ça ar o
Semana 1 97 8 18 8 23 21 5 180
Semana 2 120 15 12 13 21 17 15 213
Semana 3 82 4 0 12 38 25 19 180
Total 299 27 30 33 82 63 39 573

Qui-quadrado ( X 2 ) é calculado por primeiro encontrando o esperado frequências em


cada célula.
Isso é feito usando a equação:

Frequência esperado =
linha soma  coluna soma
fe = geral soma

Para por exemplo, para a semana 1, o frequência esperada de rejeitos de areia é (180 
299)/573 
93,93. O tabela abaixo mostra o frequência esperada para o restante do células.

Areia Corrida Mudanç Derruba Corebreak Quebrad Outro


errada a r o
Semana 1 93,93 8.48 9.42 10.37 25.76 19.79 12h25
Semana 2 111,15 10.04 11.15 12.27 30.48 23.42 14h50
Semana 3 93,93 8.48 9.42 10.37 25.76 19.79 12h25

O próximo passo é calcular X 2 do seguinte modo:

x2  
(Frequência esperado  Frequência observado) 2
sobre todos células Frequência esperado

(93,93  97) 2 (12.25  19) 2


 ⋯   45,60
93,93 12,25

Em seguida, escolha um valor para  ; vamos usar   0,10 para este exemplo. Os
graus de liberdade para o teste X 2 são ( k − 1)( m − 1)  12. Referindo-se ao Apêndice 4,
382 Cha pte r T e n
encontramos a crítica cal valor de X 2  18h55 para nosso valores. Desde nosso
calculado valor de X 2 excede o crítico valor, nós concluir que o semanas diferir com
respeito para proporções de vários tipos de defeituosos.
Analyze Phase 38
3
Variável de resposta
e Regressão Número de
Logística Tipo Categorias de Características de Exemplos
resposta resposta
Binário 2 Dois níveis Vai/não vai,
passar/ falhar,
compra/não
compra comprar,
sim não,
recupera/morre,
masculino feminino
Ordinal 3 ou mais Natural encomenda Insatisfeito/
de o níveis neutro/satisfeito,
nenhum/leve/grave,
fino/médio/grosso
Nominal 3 ou mais Não natural encomenda Preto branco/
de o níveis Hispânico, preto
cabelo/ cabelo
castanho/loiro
cabelo,
ensolarado/chuvoso
/ nublado

MESA _ 10.12 tipos de logística Regressão Análise

logística Regressão
A regressão logística, como a regressão de mínimos quadrados, investiga a relação
entre uma variável de resposta e um ou mais preditores. No entanto, a regressão
linear é usada quando as variáveis de resposta são contínuas, enquanto técnicas de
regressão logística são usadas com variáveis de resposta categóricas. Veremos três
tipos diferentes de logística regressão, baseado sobre o tipo de resposta variável ser
analisado (ver Mesa 10.12).
O básico ideia atrás logística regressão é muito simples, como mostrando em Figo.
10.32. x é uma “causa” hipotética de uma resposta. X pode ser contínuo ou categórico.
Y é um evento que nós são interessado em e isto deve ser categórico. a modelo pode
ter múltiplo X , mas apenas um resposta variável. Para exemplo, Y poder ser se a
perspectiva comprado a revista ou não, e Xs poder ser o idade e corrida de o prospect.
O modelo seria produzir a predição de o probabilidade de a revista ser comprado
baseado sobre o idade
Proportion responding
384 Cha pte r T e n
x

F IGURA 10.32 logística regressão.


Analyze Phase 38
5
e raça do prospect, que pode ser usado para priorizar uma lista de telemarketing
propósitos.

O logit
Figura 10.32 ilustra a direto modelagem de o proporção respondendo contra a
previsão tor variável. O problema é que, no mundo real, o padrão de resposta pode
assumir um largo variedade de formulários e a simples modelo de o proporção
respondendo como a função de preditores não é flexível suficiente para pegar sobre
todos de o vários formas. O solução para esse é usar uma função matemática,
chamada logit, que permite desenvolver modelos versáteis. A fórmula para o logit é
mostrada na Eq. (10.12). Embora pareça intimidante, é realmente muito semelhante à
equação de uma regressão linear. Notar que e é criado para a poder que é apenas a
linear função de o Xs. Em facto, o poder prazo é apenas o múltiplo linear regressão
modelo. No entanto, onde linear regressão pode apenas modelo linha reta funções, o
Logit leva sobre a largo variedade de curva formas como o estimativas dos
parâmetros variam. A Figura 10.33 mostra curvas logit para alguns valores de  , com
 mantido constante em 0 (alterando  resultaria ao deslocar as curvas para a
esquerda ou para a direita).

   1x1  x 2⋯ 
P(x) e 2
(10.13)
 n xn

   1x1  x 2
1e 2

⋯ n xn

Chances Índices
Quando o link logit é usado (é o padrão na maioria dos pacotes de software, incluindo
Minitab), a regressão logística avalia as chances de algum evento de interesse
acontecer contra o chances de isto não acontecendo. Esse é feito através da chances . _
"Chances" e probabilidade laços são semelhante, mas não idêntico. Em a padrão área
coberta de cartões lá são 13 diferente cartão

P(x) = exp(0 + X)/(1 + exp(0 + X)) o logit


1
 = –3 =2 =1
0,9
 = 0.3
0,8  = 0.5
0,7

0,6
P(x)

0,5

0,4

0,3

0,2

0,1

0
–10 –8 –6 –4 –20 2 4 68
x
386 Cha pte r T e n

F IGURA 10.33 Trama de o Logit para  = 0,  varia.


Analyze Phase 38
7
Rede Site Projeto Encontrado Não' Encontrar
Responder Responder
Velho 50 169
Novo 26 46

MESA _ 10.13 Chances Razão Exemplo

valores, ás, rei, rainha, e então sobre. O chances de a aleatoriamente selecionado cartão
ser um ás é 12 para 1, ou seja, há 12 nonaces para 1 ace. A probabilidade de selecionar
um ás é de 1 em 13, ou seja, existem 13 escolhas das quais 1 é um ás. Na maioria das
análises estatísticas usadas em Six Sigma trabalhar nós usar probabilidades, mas
logística regressão usa chances para isso é cálculos.
Considerar a Seis Sigma projeto envolvendo a Rede site. O meta de o projeto é
para fazer mais fácil para os clientes encontrarem o que procuram. Uma pesquisa foi
aplicada a pessoas Quem visitado o Rede site e o resultados em Mesa 10.13 eram
obtido. O Preto Cinto quer para saber se o projeto mudar tive um impacto sobre o
clientes habilidade para encontrar uma resposta à sua pergunta.
A razão de chances para esses dados é calculada da seguinte forma:

Chances de encontrando responder com velho projeto 


50/169  0,0296 Chances de encontrando responder com
novo projeto  26/46  0,565 Chances razão  0,565/0,296
 1,91

Pode-se ver que as chances do cliente encontrar a resposta parecem ser de 91%.
melhor com o novo design do que com o antigo. No entanto, para interpretar este
resultado corretamente devemos saber se essa melhora é estatisticamente significativa.
Podemos determinar- meu isso usando regressão logística binária.
Observação: outro caminho para analisar esses dados é para usar qui-quadrado.
logística regressão, em Adição para fornecendo a preditivo modelo, vai às vezes
trabalhar quando qui-quadrado analis- irmã não vai.

Binário logística Regressão


A função de regressão logística binária do Minitab está localizada no menu Stat >
Regression. Os dados devem ser organizados em um dos formatos aceitos pelo
Minitab. Binário do Minitab logística Regressão diálogo caixa (Figo. 10.34), shows o
entrada para esse problema em colunas C1, C2, C3, e C4. Coluna C4 é a código valor
que é 0 se o cliente visitado depois o mudança, 1 caso contrário.

interpretando do Minitab Binário logística Regressão Saída


Há uma grande quantidade de informações exibidas na Fig. 10.35; vamos dar uma
olhada nisso. Na parte superior, vemos que o Minitab usou o link logit na análise, que
é o padrão. Próximo MinitabName resume o resposta Informação, qual partidas o
entrada em Tabela 10.13—(exemplo de razão de chances). Em seguida, vemos os
coeficientes do modelo preditivo. O coeficiente rotulado "Constante" (0,5705) é o valor
para  em Eq. (10.13), e o coeficiente rotulado como “WhenCode” é o coeficiente para
 . A coluna P é o teste de significância e P < 0,05 é o crítico valor. Desde P < 0,05 para
ambos o constante e o WhenCode, concluímos que a constante não é zero e que
quando os dados foram obtidos (antes ou depois a mudança de design) fez a
diferença.
388 Cha pte r T e n

F IGURA 10.34 do Minitab Binário logística Regressão diálogo caixa.

F IGURA 10h35 Saída de MinitabName binário logística


regressão.
381
382 Cha pte r T e n

Na linha WhenCode, temos três colunas adicionais: odds ratio, 95% confi- limite
inferior do intervalo de confiança e limite superior do intervalo de confiança de 95%.
A razão de chances é o 1,91 que calculamos diretamente anteriormente. O intervalo de
confiança de 95% na razão de chances vai de 1,07 a 3,40. Se a mudança de projeto não
fez diferença, o valor esperado de a razão de chances seria 1,00. Como o intervalo não
inclui 1,00, concluímos (em 95% confiança) que o projeto mudar feito a diferença. Esse
conclusão é confirmado pelo valor P de 0,029 para o teste de que todas as inclinações
são iguais (o teste de inclinações iguais é equivalente para testar a hipótese nula de
que a mudança de design não teve efeito).
Se tivéssemos um termo de covariável (um X em uma escala contínua), o Minitab
teria per- formado a bondade de ajustar teste por dividindo o dados em 10 grupos e
realizando a chi- quadrado análise da tabela resultante.
Em seguida, o Minitab compara as probabilidades previstas com as respostas
reais. O os dados são comparados aos pares, preditos: encontrados e não encontrados
versus reais: encontrados e não encontrado. A par é “concordante” se real e categorias
previstas são o mesmo, “dis- cordante” se eles são diferente, e "ligado" de outra forma.
Mesa 10.14 shows o classificações para o nosso exemplo.
O total número de encontrado vezes não encontrado pares é 76  215  16340. O
total num- número de pares concordantes é 169  26  4394. O número total de pares
discordantes é 50  46  2300. Os restantes 16340 − 4394 − 2300  9646 pares são
empates. O modelo corretamente discriminado entre e classificado o concordante
pares, ou 27%. Isto incorretamente classi- satisfeito os pares discordantes, ou 14%.
Somers' D, Goodman-Kruskal Gama, e Kendall's tau-a são resumos de o mesa
de concordante e discordante pares. O números ter o mesmo numerador: o número
de concordante pares menos o número de discordante pares. Os denominadores
são o número total de pares com D de Somers, o número total de pares, exceto
empates com Goodman-Kruskal Gamma, e o número de todos os possíveis
observação pares para Kendall's Tau-a. Esses medidas maioria provável mentira
entre 0 e 1 onde valores maiores indicam uma melhor capacidade preditiva do
modelo. Os três as medidas resumidas de ajuste variam entre 0,05 e 0,31. Isso não é
especialmente impressionante sive, mas o P -valor e o concordância/discordância
análise indicar que isso é melhorar que aleatoriamente adivinhação.

Conclusão
A principal conclusão é encontrada na razão de chances e no valor- P . O novo design
é melhor que o original projeto. O medíocre previsibilidade de o modelo indica que
há mais para encontrando o correto responder que o diferente rede projetos. Em esse
caso isto seria provavelmente pagar para continuar olhando para caminhos para
melhorar o processo, apenas 36% de o cus- tomers encontre o correto resposta (um
processo sigma que é menos que zero!).

Projeto Correto Resultado Incorreta Resultado Real Contar Resultado


Velho Não encontrado 169 Concordante
Encontrado 50 Discordante
Novo Encontrado 26 Concordante
Não Encontrado 46 Discordante

MESA _ 10.14 Concordante e Discordante Resultados


Analyze Phase 383

Ordinal logística Regressão


Se o resposta variável tem mais que dois categorias, e se o categorias ter a natural
ordem, então usar ordinal logística regressão. do Minitab procedimento para realizando
esse analis- sis assume linhas de regressão logística paralelas. Você também pode
querer realizar um teste nominal regressão logística, que não assume linhas de
regressão paralelas, e comparar as resultados. Uma vantagem de usar a regressão
logística ordinal é que a saída inclui estimativas acasalado probabilidades para o
resposta variáveis como a função de o fatores e covariáveis.

Ordinal logística Regressão Exemplo


A chamar Centro conduzido a enquete de isso é clientes para determinar o impacto de
vários chamar Centro variáveis sobre geral cliente satisfação. Clientes eram
perguntado para ler a estado- mento, em seguida, responder indicando a extensão de
sua concordância com a declaração. O dois itens de pesquisa que analisaremos são:

Q3: O técnico representante de suporte foi profissional. (X )


Q17: EU plano para usar XXX em futuro , caso haja
necessidade. ( Y )

Clientes eram pediu que escolha um de a seguir respostas para cada pergunta:

1. EU fortemente discordo com o declaração.


2. EU discordo com o declaração.
3. EU nenhum concordar nem discordo com o declaração.
4. EU concordar com o declaração.
5. EU fortemente concordar com o declaração.

O resultados são mostrando em Mesa 10.15. Mesa 10.16 presentes o primeiro papel
de o MinitabName planilha para os dados - observe que esta é a mesma informação
da Tabela 10.15, apenas reorganizado. Lá é um linha para cada combinação de
respostas para Q3 e Q17.
do Minitab diálogo caixa para esse exemplo é mostrando em Figo. 10.36. O
armazenar diálogo caixa permite que você diga ao Minitab para calcular as
probabilidades para as várias respostas. eu também recomendar dizendo
MinitabName para calcular o número de ocorrências então que você pode cruzar
verifique suas frequências com as do Minitab para garantir que você tenha os dados
corretos formatar. Quando você dizer MinitabName para loja resultados, o Informação
é colocada em novo colunas

Frequência
Mesa
Q17 Resposta
Q3 RESPOSTA 1 2 3 4 5
1 7 6 7 12 9
2 5 2 8 18 3
3 4 2 20 42 10
4 7 5 24 231 119
384 Cha pte r T e n
5 0 2 14 136 303

MESA _ 10.15 Enquete Resposta Tabulação cruzada


Analyze Phase 385

Q3Resposta Frequencia Q17Resposta


1 7 1
2 5 1
3 4 1
4 7 1
5 0 1
1 6 2
2 2 2
etc. etc. etc.
MESA _ 10.16 Mesa 10.15 dados reformatado para MinitabName

F IGURA 10.36 Ordinal logística Regressão MinitabName diálogo caixas.

em sua planilha ativa, não na janela da sessão. Observe as entradas de dados para o
resposta, frequência, modelo, e fatores.
do Minitab sessão janela saída é mostrando em Figo. 10.37. Para simplicidade
apenas papel de o saída é mostrando. O qualidade de ajuste Estatisticas (concordância,
discordância, etc) ter estive omitido, mas o interpretação é o mesmo como para binário
logística regressão. MinitabName precisa para designar um dos valores de resposta
como o evento de referência. A menos que você especificamente escolher a referência
evento, MinitabName define o referência evento baseado sobre o dados tipo:

 Para numérico fatores, o referência evento é o o melhor numérico valor.


 Para data hora fatores, o referência evento é o maioria recente data hora.
 Para texto fatores, o referência evento é o durar em alfabético ordem. A
resumo de segue a interpretação:
386 Cha pte r T e n

F IGURA 10.37 MinitabName ordinal logística regressão sessão janela saída.

 O chances de um evento de referência é o proporção de P(evento) para P(não evento).


 O coeficiente estimado também pode ser usado para calcular a razão de
chances, ou o razão entre duas probabilidades. Exponenciando a estimativa de
parâmetro de um fator produz a razão de P(evento)/P(não evento) para um
determinado nível de fator em comparação com o nível de referência.

Você pode alterar o evento de referência padrão na subcaixa de diálogo Opções.


Para nós por exemplo, a categoria 5 (concordo totalmente) é o evento de referência. As
razões de chances são calculadas atrasado como o probabilidade de o resposta ser a 5
contra o probabilidade que isto é não a 5. Para fatores, o menor numérico valor é o
referência evento. Para o exemplo, esse é a Q3 resposta de 1.
As razões de chances e seus intervalos de confiança são dados perto da parte
inferior do mesa. a negativo coeficiente e um chances razão menos que 1 indicar que
mais alto respostas para Q17 tratar para ser associado com mais alto respostas para
Q3. Chances índices cujo confiança intervalos não incluem 1,00 são estatisticamente
significativos. Por exemplo, isso se aplica a respostas de 4 ou 5 para Q3, ou seja, um
cliente que escolhe um 4 ou 5 em resposta a Q3 é mais provavelmente escolherá um 5
em resposta a Q17.
O estatístico probabilidades armazenado por MinitabName são traçado em Figo.
10.38. O linhas para Q3  4 e Q3  5, o fator categorias com significativo chances
índices, são mostrando como audacioso linhas. Observação que o brecha entre esses
dois linhas e o outro linhas é o melhor para Q17  5.

Nominal logística Regressão


Nominal logística regressão, como indicado em Mesa 10.12, é usado quando o
resposta é categórico, lá são dois ou mais resposta categorias, e lá é não natural
Analyze Phase 387
encomenda
388 Cha pte r T e n

Geral Satisfação contra Técnico Satisfação


0,7

0,6

0,5
Probability

0,4

0,3

0,2

0,1

0
Q17 = 1 Q17 = 2 Q17 = 3T17 = 4T17 = 5
Geral Resposta Sat
Q3 = 1 Q3 = 2 Q3 = 3 Q3 = 4 Q3 = 5

F IGURA 10.38 MinitabName armazenado resultados.

das categorias de resposta. Também pode ser usado para avaliar se a linha paralela
suposição de logística ordinal regressão é razoável.

Exemplo de Nominal logística Regressão


Sobre avançar investigação o Mestre Preto Cinto descoberto que o Preto Cinto
trabalhando sobre o Rede site redesenhar projeto descrito em o binário logística
regressão exemplo segundo- ção acima capturou categorias adicionais. Em vez de
apenas responder que o resposta à sua pergunta foi encontrada ou não encontrada,
houve várias outras respostas categorias (Figs. 10.39 e 10.40). Uma vez que as várias
subcategorias não encontradas não têm ordem natural, a regressão logística nominal é
o procedimento correto para analisar essas dados.
O resultado de do Minitab análise, mostrando em Figo. 10.41, shows que apenas o
chances razão para encontrado e trabalhado versus não encontrado é significativo. O
intervalo de confiança para todos outro encontrado subcategorias comparado com
encontrado e trabalhado inclui 1,00. O família Ovalor P é um teste de significância para
todas as comparações simultaneamente. Já que estamos fazendo quatro comparações,
o nível de significância é maior do que o de cada teste separado.

Comparação com qui-quadrado


Se uma análise de qui-quadrado for realizada nos dados de redesenho da web, o
Minitab produzirá o saída mostrada na Fig. 10.42. Observe que o procedimento qui-
quadrado imprime um aviso que lá são dois células com menos que o recomendado
mínimo esperado frequência de
5.0. Também fornece um valor- P de 0,116, que é maior que o valor crítico de 0,05,
levando- chegando a uma conclusão um pouco diferente da análise de regressão
logística. O Chi- quadrado teste apenas vamos nós olhar no o significado de o geral
resultado, qual é análogo para o "família P -valor” teste realizado em o nominal
logística regressão análise. Como- sempre, neste caso, estamos principalmente
preocupados com as chances melhoradas de encontrar o resposta correta com o novo
web design versus o antigo web design, que é fornecido por logit 4 da regressão
logística.
F IGURA 10.39 do Minitab nominal logística regressão diálogo caixa.

F IGURA 10h40 MinitabName nominal logística regressão


saída.
387
388 Cha pte r T e n

F IGURA 10.41 Interpretação de MinitabName nominal logística regressão saída.

F IGURA 10.42 Qui-quadrado análise de rede projeto dados.


Analisar Fase 389

Não Paramétrico Métodos


Os testes estatísticos mais comumente usados ( testes t , testes Z , ANOVA, etc.)
número de suposições (consulte as suposições de teste acima). Testes não
paramétricos, enquanto não é isento de suposições, não assume uma distribuição
específica para a população. O eliminatórias (presumindo) para não paramétrico testes
são sempre muito menos restritivo que para deles paramétrico homólogos. Para
exemplo, clássico ANOVA requer o presumir- ções de amostras aleatórias
mutuamente independentes extraídas de distribuições normais que têm variâncias
iguais, enquanto as contrapartes não paramétricas requerem apenas as suposições ção
de que as amostras vêm de quaisquer distribuições contínuas idênticas. também
clássico métodos estatísticos são estritamente válidos apenas para dados medidos em
escalas de intervalo ou razão, enquanto as estatísticas não paramétricas se aplicam a
dados de frequência ou contagem e a dados medidos sobre nominal ou ordinal
escalas. Desde intervalo e razão dados pode ser transformado para nomi- nal ou
ordinal dados, não paramétrico métodos são válido em todos casos onde clássico met-
ods são válido; o reverter é não verdadeiro. Ordinal e nominal dados são muito
comum em Seis Trabalho Sigma. Quase todas as pesquisas com clientes e
funcionários, classificações de qualidade de produtos e muitos outras atividades
produzem dados ordinais e nominais.
Então, se os métodos não paramétricos são tão bons, por que usamos métodos
paramétricos? ods? Quando as suposições forem válidas, os testes paramétricos
fornecerão maior poder do que testes não paramétricos. Ou seja, a probabilidade de
rejeitar H 0 quando ela é falsa é maior com paramétrico testes que com a não
paramétrico teste usando o mesmo amostra tamanho. Como- No entanto, se as
suposições não forem válidas, os testes não paramétricos podem ter
consideravelmente maior poder do que suas contrapartes paramétricas.
Deve-se notar que os testes não paramétricos realizam comparações usando
medianas em vez de que significa, fileiras em vez de que Medidas, e sinais de
diferença em vez de que
F IGURA 10.43 do Minitab não paramétrico testes.
390 Cha pte r T e n
Minitab não O que Isto Faz
390
Analógicos
paramétrico Teste Paramétricos
1 amostra sinal executa a amostra única sinal teste de o mediana e calcula o correspondente  1 amostra teste Z
apontar estimativa e confiança intervalo.  1 amostra teste t
1 amostra Wilcoxon executa a amostra única Wilcoxon assinado classificação teste de o mediana  1 amostra teste Z
e calcula o correspondente apontar estimativa e confiança intervalo.  1 amostra teste t
Mann-Whitney executa um hipótese teste de o igualdade de dois população medianas  2 amostras teste t
e calcula o correspondente apontar estimativa e confiança intervalo.
Kruskal-Wallis Kruskal-Wallis executa a hipótese teste de o igualdade de população medianas  Mão Única ANOVA
para a Mão Única projeto (dois ou mais populações). Esse teste é a
generalização de o procedimento usado por o Mann-Whitney teste.
Ver também: humor mediana teste.
humor mediana teste executa a hipótese teste de o igualdade de população medianas em a Mão  Mão Única ANOVA
Única projeto. Às vezes chamado a mediana teste ou sinal pontuações
teste.
humor mediana teste é robusto contra discrepantes e erros em dados, e é
particularmente apropriado em o preliminares estágios de análise.
humor mediana teste é mais robusto contra discrepantes que o Kruskal-Wallis
teste, mas é menos poderoso (o confiança intervalo é mais amplo, sobre o
média) para analisando dados de muitos distribuições, Incluindo dados de o
normal distribuição.
Ver também: Kruskal-Wallis teste.
Friedman Executa uma análise não paramétrica de um experimento de bloco.  Duas vias ANOVA
Randomizado bloquear experimentos são a generalização de emparelhado  emparelhado sinal
experimentos. O Friedman teste é a generalização de o emparelhado sinal teste
teste com a nulo hipótese
de tratamentos tendo não efeito. Esse teste requer exatamente um observação por
bloco de tratamento combinação.
Corre testes Teste se ou não o dados ordem é aleatório. Usar do Minitab Estado > Qualidade  Nenhum
Ferramentas > Correr Gráfico para gerar a correr gráfico.
Emparelhados médias Médias de pares calcula e armazena a média para cada par possível de valores  Nenhum
em a solteiro coluna, Incluindo cada valor com em si. Emparelhados médias
são também chamadas de médias de Walsh. As médias pareadas são usadas,
por exemplo, para o Wilcoxon método.
Emparelhados diferenças Emparelhados diferenças calcula e lojas o diferenças entre todos possível  Nenhum
pares de valores formados por duas colunas. Essas diferenças são úteis para
não paramétrico testes e confiança intervalos. Para exemplo, o apontar
estimativa dado por Mann-Whitney pode ser calculado como o mediana de o
diferenças.
Emparelhados encostas Emparelhados encostas calcula e lojas o declive entre todos possível pares de  linear
pontos, onde a linha em yx colunas define a apontar em o avião. Esse simples
procedimento é útil para encontrando robusto estimativas de o declive de a regressão
linha através o dados.
de Levene teste Teste para igual variações. Esse método considera o distâncias de o  Bartlett's teste
observações de deles amostra mediana em vez de que deles amostra significar.
Usando o amostra mediana em vez de que o amostra significar faz o teste mais
robusto para menor amostras.
Dist. não paramétrica análises vezes até a falha quando não distribuição pode ser encontrado para  paramétrico
Análise—Censurada ajustar o (censurado) dados. testes para o igualdade de sobrevivência dist. Análise-
Dados curvas. censurado
dados
Perigo parcelas - não- Se os dados são censurado à direita, parcelas risco empírico função ou atuarial  Perigo
distribuição estimativas. Se dados são arbitrariamente censurado, parcelas atuarial parcelas—
paramétrica análise estimativas. paramétrico
distribuição
análise

 © Todos os direitos reservados. 2000 Minitab, Inc. Usado com permissão.


MESA _ 10.17 Formulários para Não paramétrico do Minitab Testes*
391
392 Cha pte r T e n

diferenças medidas. Além de não exigir nenhuma suposição distributiva, esses as


estatísticas são também mais robusto para outliers e Valores extremos.
O assunto de não paramétrico Estatisticas é a grande um e lá são muitos inteiro
livros escrito sobre isso. Não podemos esperar cobrir todo o assunto em um livro
sobre Seis Sigma. Em vez de, nós brevemente descrever o não paramétrico testes
realizado por MinitabName (Figo. 10.43). Os testes não paramétricos do Minitab
cobrem uma gama razoavelmente ampla de aplicações para Six Sigma trabalho, como
mostrado na tabela 10.17.

Diretrizes sobre Quando para Usar Não Paramétrico testes


Usar análise não paramétrica quando qualquer do a seguir estão verdade (Gibbons,
1993):

 O dados são conta ou frequências de diferente tipos de resultados.


 O dados são medido sobre a nominal escala.
 O dados são medido sobre um ordinal escala.
 O premissas obrigatório para o validade de o correspondente paramétrico
pró- cedência não são atendidas ou não podem ser verificadas.
 O forma do distribuição de onde a amostra é desenhada É desconhecido.
 O tamanho da amostra é pequeno.
 O Medidas são impreciso.
 Lá são discrepantes e/ou extremo valores em o dados, fazendo o mediana
mais representante do que a média.

Usar a paramétrico procedimento quando ambos de o seguindo


são verdadeiro:

 O dados são coletado e analisado usando um intervalo ou razão escala de medição.


 Todos de o premissas obrigatório para o validade de que paramétrico
procedimento pode ser verificado.
CAPÍTULO 11
O Melhorar/Projetar
Estágio

T
objetivo primário da fase de Melhoria ou Projeto do DMAIC/DMADV é
implementar o novo sistema. A primeira consideração é priorizar os vários
oportunidades, se mais que um proposta existe. Uma vez a preferido
abordagem tem
determinado, o novo projeto de processo ou produto é definido e as configurações
ideais estabelecida. Esse novo projeto pode então ser avaliado para riscos e potencial
falha modos. Se qualquer de esses passos exigir mudanças em anterior premissas,
então passos deve ser repetido para avaliar adequadamente a nova proposta.

Usando Cliente Exigências para Fazer


Projeto e Melhoria Decisões
As demandas do cliente podem ser facilmente convertidas em requisitos de projeto e
especificações ções. O termo “tradução” é usado para descrever esse processo porque
a atividade antigamente envolve interpretando o palavras de um linguagem (o
clientes) em aqueles de outro (o empregado). Por exemplo, em relação à porta de seu
automóvel, a cliente pode dizer “Quero que a porta feche completamente quando a
empurro, mas não quero que ele feche apenas com o vento ou quando estou
estacionado em uma colina íngreme. O engenheiro trabalhando com esse
requerimento deve converter isto em Engenharia termino- como libras de força
necessárias para mover a porta de aberta para fechada posição, o ângulo da porta
quando ela é aberta e assim por diante. Deve-se ter cuidado para manter o clientes'
intenção por todo o desenvolvimento de interno requer- mentos. O objetivo das
especificações é transmitir a voz do cliente através de fora o organização.
Em Adição para o emitir de mantendo o voz de o cliente, lá é o relacionado
questão da importância atribuída a cada demanda pelo cliente. Projeto de produtos e
serviços sempre envolvem compensações: a economia de gasolina sofre com o peso do
veículo aumenta, mas a segurança melhora à medida que o peso aumenta. A
importância de cada critério deve ser determinado por o cliente. Quando diferente
clientes atribuir diferente importa- tância aos critérios, as decisões de projeto são
ainda mais complicadas.
Torna-se difícil escolher entre designs concorrentes em face da ambigüidade e
cliente para cliente variação. Adicionar para esse o diferenças entre interno pessoal e
objetivos - departamento versus departamento, designer versus designer custo versus
qualidade, etc. - e o problema de escolher uma alternativa de design rapidamente se
torna plex. A rigoroso processo para decidindo qual alternativa para resolver sobre é
útil em tratativa com a complexidade.

393
394 Cha pte r Ele v e n

Em seguida, devemos determinar a importância atribuída a cada item pelos


clientes. Há várias maneiras de fazer isso:

 Ter clientes atribuir importância pesos usando a numérico escala (por


exemplo, "Como importante é 'Auto-ajuda fácil' numa escala entre 1 e 10?”).
 Faça com que os clientes atribuam importância usando uma escala subjetiva
(por exemplo, sem importância, importante, muito importante, etc.).
 Ter clientes "gastar" $ 100 por alocando isto entre o vários Unid. Em esses
casos, geralmente é mais fácil para o cliente alocar primeiro $ 100 para o
principal categorias e, em seguida, aloque outros US$ 100 para itens dentro de
cada subcategoria. O subcategoria pesos são "local" em que eles aplicar para o
categoria. Para calcular pesos globais para itens de subcategoria, divida os
pesos de subcategoria por 100 e multiplicá-los pelo maior peso da categoria.
 Faça com que os clientes avaliem um conjunto de ofertas de produtos
hipotéticos e indiquem sua preferência por cada produto classificando as
ofertas, atribuindo um “provável para comprar”, etc. As ofertas de produtos
incluem uma mistura cuidadosamente selecionada de itens escolhidos na lista
de demandas dos clientes. A lista é selecionada de forma caminho que o
relativo valor o cliente lugares sobre cada item em o oferta pode ser
determinado a partir dos valores de preferência. Isso é conhecido como análise
conjunta , uma técnica avançada de marketing descrita em cursos de
marketing Estatisticas.
 Ter clientes Avalie o Unid em pares, atribuindo a preferência avaliação para
um de o Unid em cada par, ou decidindo que ambos Unid em a par são
igualmente importa- tant. Isso é menos tedioso se as principais categorias
forem avaliadas primeiro, depois as itens dentro de cada categoria. A
avaliação pode usar valores numéricos ou rótulos descritivos. As comparações
pareadas podem ser analisadas usando um método conhecido como o
analítico hierárquico processo (AHP; também às vezes referido para como
uma Matriz de Priorização) para determinar a importância relativa atribuída a
todos os itens.

Todos os métodos acima têm suas vantagens e desvantagens. Ilustraremos avaliar


o uso de AHP para nosso produto de software hipotético. AHP é uma poderosa
tecnologia exclusivo que foi comprovado em uma ampla variedade de aplicações.
Além de seu uso em determinando os valores de importância do cliente, é útil para a
tomada de decisões em geral. A pesquisa mostrou que as pessoas são mais capazes de
fazer comparações individuais do que para comparar simultaneamente vários itens.

Categoria Importância Pesos


Começamos nossa análise fazendo uma comparação pareada no nível superior. a
afinidade a análise do diagrama identificou cinco categorias: fácil de aprender, fácil de
usar rapidamente depois que eu aprendi, conectividade com a Internet, funciona bem
com outros softwares que possuo e fácil de manter. Organize esses itens em uma
matriz como mostrado em Fig. 11.1.
Para nossa análise, atribuiremos rótulos verbais às nossas comparações pareadas;
o ver- bola respostas vai ser convertido em numérico valores para análise. Todos
comparações são feito em relação ao objetivo do cliente de determinar qual produto
ele vai comprar. O primeiro célula em o matriz compara o "fácil para aprender"
atributo e o "fácil para usar rapidamente depois Eu tenho aprendido isto" atributo. O
The Impr o v e / D e s i g n Phase 395
cliente deve determinar qual é mais importante
396 Cha pte r Ele v e n

F IGURA 11.1 Matriz de categorias para pares comparações. ( Criado usando Especialista Escolha
2000 Programas, www.expertchoice.com .  

F IGURA 11.2 Concluído nível superior comparação matriz.

para ele, ou se os dois atributos são de igual importância. Na Fig. 11.1 este cliente
indica que “fácil de aprender” é moderadamente a fortemente preferido em relação a
“fácil de usar rapidamente depois de aprender” e o software colocou um  4 na célula
comparando esses dois atributos. (O escala vai de −9 para  9, com "igual" ser
identificado como um  1.) Os atributos restantes são comparados um a um,
resultando na matriz mostrando em Figo. 11.2.
O sombreado bares sobre o atributo rótulos fornecer a visual mostrar de o
rela- importância de cada item principal para o cliente. Numericamente, a importância
pesos são:

 Fácil de aprender: 0,264 (26,4%)


 Fácil de usar rapidamente depois que eu aprendeu: 0,054 (5,4%)
 Internet conectividade: 0,358 (35,8%)
 Funciona bem com outro Programas EU ter: 0,105 (10,5%)
 Fácil de manter: 0,218 (21,8%)

Esses relativo importância pesos pode ser usado em QFD e DFSS como bem como
em o AHP processos que nós são ilustrando aqui. Em nosso alocação de esforço, nós vai
querer para enfatizar aqueles atributos com alto importância pesos sobre aqueles com
mais baixo pesos.

 Embora a análise seja mais fácil com um software especial, você pode obter uma boa aproximação
usando um planilha. Ver Apêndice 17 para detalhes.
The Impr o v e / D e s i g n Phase 397

Subcategoria Importância Pesos


O processo usado para obter os pesos de importância da categoria é repetido para os
itens dentro de cada categoria. Por exemplo, os itens tutorial interativo, bons
documentos impressos mentação e interface intuitiva são comparados aos pares
dentro da categoria “fácil de aprender." Esse fornece pesos que indicar o importância
de cada item sobre o categoria. Para exemplo, dentro de o "fácil para aprender"
categoria, o cliente pesos poder ser:

 Interativo tutorial: 11,7%


 Bom impresso documentação: 20,0%
 Intuitivo interface: 68,3%

Se houvesse níveis adicionais abaixo dessas subcategorias, o processo seria


repetido para eles. Por exemplo, a subcategoria de interface intuitiva pode ser subdi-
divididos em “número de menus”, “número de submenus”, “itens de menu
facilmente ficou”, etc. Quanto maior o nível de detalhamento, mais fácil a tradução do
cliente exigências em especificações internas. A desvantagem é que o processo
rapidamente se torna tedioso e pode acabar pedindo ao cliente informações para as
quais ele não está qualificado fornecer. No caso de neste exemplo, provavelmente
parar no segundo nível.
Global Importância Pesos
Os pesos das subcategorias que acabamos de obter nos dizem quanta importância o
item tem com respeito para o categoria. Por isso, eles são muitas vezes chamado local
importância pesos. No entanto, eles não nos informam sobre o impacto do item no
objetivo geral, que é chamado de global impacto. Esse é facilmente determinado por
multiplicando o subcategoria item peso por o peso da categoria à qual o item
pertence. Os pesos globais para o nosso exemplo são mostrando em Tabela 11.1 em
descendente ordem.
Usando Pesada CTQs em Tomando uma decisão
O primeiro passo para decidir sobre um curso de ação é identificar o objetivo. Por
exemplo, vamos dizer você é o proprietário de o produtos desenvolvimento processo
para a empresa que vende software para ajudar os indivíduos a gerenciar suas
finanças pessoais. O produto, vamos chamá-lo A DollarWise, é dominante em seu
mercado e sua empresa é muito respeitada por seus clientes. tomers e concorrentes,
em grande papel porque de esse produtos reputação. O negócios é rentável e o
liderança naturalmente quer para manter esse prazeroso definir de circun- posições e
construí-las para o futuro. A organização se comprometeu com um estratégia de
manter a DollarWise como líder em seu segmento de mercado para capitalizar isso é
reputação por lançando adicional novo produtos dirigido em direção a outro
financeiramente grupos de clientes orientados, como pequenas empresas. Eles
determinaram que os produtos duto desenvolvimento é um processo do núcleo para
implantação esta estratégia.
Como o processo proprietário, ou negócios processo executivo, você ter ao
controle de o orçamento para o desenvolvimento do produto, incluindo os recursos
para atualizar o produto existente. Embora isto é ainda considerado o melhor pessoal
financeiro Programas disponível, DollarWise está ficando um pouco velho e a
competição tem fechado constantemente o técnico brecha. Você acredita que uma
grande atualização do produto é necessária e deseja concentrar seu recursos naquelas
coisas que importam mais para os clientes. Assim, seu objetivo é:
398 Cha pte r Ele v e n
Escolher o melhor produto projeto de atualização conceito
Os pesos de importância global são mais úteis para fins de avaliação de
alternativas. nativo rotas para o geral meta. Para nosso exemplo, Internet
conectividade obviamente tem a
The Impr o v e / D e s i g n Phase 399

Categoria Subcategoria Local Peso Global Peso


Fácil para aprender Intuitivo interface 68,3% 18,0%
Internet On-line pagamento de contas 43,4% 15,5%
conectividade
Internet Download declarações 23,9% 8,6%
conectividade
Internet Download investimento 23,9% 8,6%
conectividade Informação
Funciona bem Hotlinks para planilha 75,0% 7,9%
com outro
Programas
Fácil para manter Livre Internet remendos 35,7% 7,8%
Fácil para manter Ótimo, livre autoajuda 30,8% 6,7%
técnico assistência sobre o
Internet
Fácil para aprender Bom documentação 20,0% 5,3%
Fácil para manter Razoavelmente preço avançado 20,0% 4,4%
técnico apoiar
Internet Funciona bem em 56K 8,9% 3,2%
conectividade
Fácil para aprender Interativo tutorial 11,7% 3,1%
Fácil para manter Automático Internet 13,5% 2,9%
Atualizações
Funciona bem Editar relatórios no 25,0% 2,6%
com outro word processador
Programas
Fácil para usar Salvável freqüentemente 43,4% 2,3%
rapidamente usado relatórios
depois Eu tenho
aprendido isto
Fácil para usar Atalho chaves 23,9% 1,3%
rapidamente
depois Eu tenho
aprendido isto
Fácil para usar Menus curtos mostrando 23,9% 1,3%
rapidamente apenas freqüentemente
depois Eu tenho usado comandos
aprendido isto
Fácil para usar Macro capacidade 8,9% 0,5%
rapidamente
depois Eu tenho
aprendido isto

MESA _ 11.1 Local e Global Importância Pesos

grande impacto no cliente. “Fácil de usar rapidamente depois que aprendi” tem um
impacto baixo. "Fácil para aprender" é dominado por um item: o do utilizador
400 Cha pte r Ele v e n
interface. Esses pesos vai ser usado para avaliar diferentes conceitos de atualização
propostos. Cada conceito será avaliado em cada item de subcategoria e atribuído um
valor dependendo de quão bem ele aborda o item. Os valores serão multiplicados
pelos pesos globais para chegar a uma pontuação geral para o conceito. As pontuações
podem ser ordenadas para fornecer uma lista que você, o proprietário do processo,
pode usar ao tomar decisões de financiamento. Ou, de forma mais proativa, as
informações podem ser usado para desenvolver um conceito que enfatiza as
demandas mais importantes do cliente. A Tabela 11.2 mostra parte de uma tabela que
avalia conceitos usando os pesos globais. O classificação numérica usada na tabela é 0
 sem impacto, 1  pequeno impacto, 3  moderado impacto, 5 alto impacto. Como
os pesos globais soma 1 (100%), o mais alto possível
398
The Impr o v e / D e s i g n Phase 401

Razoavelme
Plano Ótimo, nte Preço Funci
Cliente Download Livre Livre Bom Avançado ona
Impacto Intuitivo On- Download Investiment Hotlinks Internet Autoajuda Document Técnico Bem Interativo
Item Pontuaçã Interface line Declarações o para Planilha Patches Técnico o- tação Apoiar no Tutorial
o Pagam Informação Assistênci 56K
ento a
de
contas
Peso Global 18,0% 15,5% 8,6% 8,6% 7,9% 7,8% 6,7% 5,3% 4,4% 3,2% 3,1%
Conceit A 3.57 3 5 1 1 3 3 4 5 5 5 5
o
Conceit B 2,99 1 1 1 3 3 5 5 5 5 5 5
o
Conceit C 4.15 5 5 5 5 5 5 3 3 1 3 3
o
Conceit D 3.36 3 3 3 3 3 3 3 5 5 5 5
o
Conceit E 2.30 5 0 0 0 5 5 1 1 0 1 1
o

MESA _ 11.2 Exemplo de Usando Global Pesos em Avaliando Alternativas


The Impr o v e / D e s i g n Phase 399

pontuação é 5. De o cinco conceitos avaliado, conceito C tem o Altíssima pontuação.


Isto pode ser visto que conceito C tem a alto impacto sobre o seis maioria importante
cliente demandas. Isto tem no pelo menos um impacto moderado em 10 dos 11 itens
principais, com exceção de “razoavelmente suporte técnico avançado com preço
acessível.” Esses itens respondem por quase 90% dos exigências do consumidor.
A pontuação de impacto do conceito no cliente é, obviamente, apenas uma
entrada para o processo de decisão. Fazendo processo. O rigor envolvido costuma
fazer da partitura uma peça muito valiosa Informação. Isto é também possível para
usar o mesmo processo para incorporar outro Informação, tal como custo, calendário,
viabilidade, etc. em o final decisão. O processo proprietário seria fazer comparações
entre pares das diferentes entradas (pontuação de impacto no cliente, custo,
viabilidade bilidade, etc.) para atribuir pesos a eles e usar os pesos para determinar
uma con- cept pontuação.

Pugh Conceito Seleção Método


O método de seleção de conceito de Pugh é uma alternativa simples à abordagem
acima de avaliando competindo projeto conceitos. O Pugh abordagem utiliza a
simples matriz dia- grama para comparar alternativa conceitos (Figo. 11.3). Um
conceito é apelidado o "linha de base" e todos os outros são avaliados em relação à
linha de base em um diagrama de matriz simples. Em DMAIC o linha de base é o
atual processo. Em DMADV, onde lá é não existir pró- cessar ou onde o atual processo
é considerado também ruim para ser resgatado, o linha de base processo é o um
encontrado "melhor" de acordo com para alguns critério (por exemplo, o mais rápido
ciclo tempo, mais baixo custo, menos erros). Se um conceito alternativo for melhor do
que a linha de base em relação a um determinado critério, é atribuído um “  ” para
esse critério. Se for pior, recebe um “–”. Outro- sábio isto é considerado para ser o
mesmo e dado um "S." Conceito pontuações são encontrado por soma- ming os sinais
de mais e menos, fornecendo uma contagem de prós e contras. Este é apenas um
contribui para a escolha final dos conceitos, mas a estrutura da abordagem estimula
pensamento e discussão e geralmente prova ser muito útil.

F IGURA 11.3 Pugh seleção de conceito matriz.


400 Inde x

Magro Técnicas para Otimizando Fluxo


A chave para o fluxo de valor é quebrar os laços mentais da mentalidade de lote e fila.
Lote e fila estão por toda parte. No seu restaurante favorito, onde você recebe um
pequeno dispositivo para alerta você quando seu mesa é preparar. No o aeroporto
onde você mover de um linha para outro para outro e mostrar o mesmo EU IA
diversos vezes. No seu do médico consultório onde fica claro para você que seu tempo
é menos importante que o do médico tempo. No telefone onde você se encontra em
espera. Na lista de espera para uma cirurgia procedimento. Em casa o dia todo à
espera de um instalador de cabos que, dizem, estará lá "às vezes Quarta-feira."
Lote e fila são também endêmico para nosso negócios. Isso é duro para Imagine
que no um apontar isto era a fantástico inovação! Massa Produção é baseado sobre
produzindo grande grande quantidade de itens idênticos para atender a demanda
prevista. Isso possibilita grandes eficiências porque os custos de configurações,
ferramentas, etc. são amortizados em um número muito grande de unidades, fazendo
o por unidade custos muito baixo. Isto também significa inventário (filas para peças e
materiais), e tempos de ciclo mais longos devido à espera. As escolhas são limitadas
àquelas favorecido por o muitos. O prazo "personalizado," derivado de o mesmo raiz
como cliente, tem sem significado. A produção é para programar, não para demandar.
O fluxo se concentra no objeto de valor. O produto, design, serviço, pedido, etc.,
que é ser criada para o cliente. O foco é não sobre o departamento, o fornecedor, o fac-
tory, o procedimento, o ferramentas, o configurar, o inventário ou qualquer outro
faceta de o digitar- prise, ou sua operação. Todas as práticas de trabalho são
cuidadosamente avaliadas e repensadas para eliminar paragens de qualquer tipo para
que o objecto de valor prossiga de forma regular e contínua cuidadosamente Para o
consumidor.

Ferramentas para Ajuda Melhorar Fluxo


Fluxo requer que o todo processo ser considerado simultaneamente. Geralmente o
pró- O processo começa com o pedido e termina com o cliente recebendo o que foi
pedido. Isto requer, com efeito, uma organização voltada para o cliente, conforme
descrito no Cap. 2. QFD é um ferramenta útil para assegurar que o valor seja
adequadamente especificado, projetado, produzido e entregue erguido Para o
consumidor. Outro ferramentas incluem:

 5S —5S é o iniciando apontar para Magro Implantação. 5S stands para


Organizar, Definir em ordem, Brilhar, Padronizar e Sustentar. Esses termos
são definidos do seguinte modo:
 Ordenar —Claramente distinguir o que é necessário para fazer o trabalho
de o que é não. Eliminar o desnecessário.
 Definir em ordem - colocar necessário Unid em deles correto lugar para
permitir para fácil acesso- sibilidade e recuperação.
 Brilhe — Mantenha o local de trabalho limpo e livre de desordem. Isso
promove a segurança como bem como eficiência.
 Padronizado limpeza —Desenvolver um abordagem para mantendo a
limpar e ordenadamente ambiente de trabalho que funciona.
 Sustentar - Fazer um hábito de manter seu local de trabalho.
 Limitação gestão - Restrições, ou gargalos, exigir especial atenção. A processo
limitação é que etapa ou papel de o processo que limites o Taxa de
Index 401
transferência de o inteiro processo. Como tal, eles determinar como muito
saída o processo pode

Você também pode gostar