Você está na página 1de 28

UNIVERSIDADE FEDERAL DO RIO DE JANEIRO

ESCOLA POLITÉCNICA
DEPARTAMENTO DE ENGENHARIA INDUSTRIAL
ENGENHARIA DE PRODUÇÃO
CONTROLE DE QUALIDADE

Trabalho de Controle de Qualidade 2022.1

Estudo sobre a eficácia da Lei Seca do município do Rio de Janeiro

Professor: Amarildo Fernandes

Alunos: André Oliveira


Gilmar Bueno
Kamila Dias

Rio de Janeiro
Julho de 2022
SUMÁRIO

1. Introdução
1.1 Contextualização
1.2 Objetivos
2. Metodologia da pesquisa
2.1 Dados utilizados
3. Referencial Teórico
3.1 Normalidade
3.2 Autocorrelação
3.3 ANOVA
3.4 Séries Temporais
3.5 Estacionariedade de uma série
4. Análise de dados e discussão de resultados
4.1 Tratamento de dados e divisão em grupos
4.2 Análise de normalidade
4.3 Análise de autocorrelação
4.4 ANOVA
4.4.1 Teste F: ANOVA de Fator Único para diferenças entre mais de duas
médias aritméticas.
4.4.2 Análise dos pressupostos
4.4.3 Configurações no MINITAB
4.4.4 Teste F ANOVA
4.4.5 Procedimento de Tukey-Kramer
4.4.6 Teste de Levene para homogeneidade da Variância
5. Conclusão
6. Bibliografia
1. Introdução

1.1 Contextualização

A Lei nº 11.705/08, comumente conhecida como Lei Seca, foi promulgada para atualizar as
regras estabelecidas para punir os condutores de veículos automotores em estado de
embriaguez. Dessa forma, foi pioneira em mudanças no Código de Trânsito Brasileiro (CTB)
e estabeleceu o teor alcoólico necessário para caracterizar um crime. Aprovou a Lei Seca,
que tinha como objetivo reduzir os acidentes de trânsito causados ​por motoristas
alcoolizados, além de proibir o consumo e a venda de bebidas alcoólicas nas rodovias
federais.

Ressalta-se que as ações relacionadas à interdição são realizadas em todas as regiões do


Brasil, com o objetivo de fiscalizar os motoristas e garantir a aplicação das regras. O
alcoolista será multado em R$ 2.943,70, além do custo da suspensão da habilitação por 12
meses.

No Rio de Janeiro, a "Operação Lei Seca" deflagrou inúmeras blitzes em pontos


estratégicos. No entanto, mesmo depois que a lei entrou em vigor e o número relativo de
acidentes de trânsito diminuiu, as críticas à forma como ela foi aplicada continuam
acirradas. Isso porque um crime só pode ser comprovado se o limite do bafômetro for
ultrapassado, e de acordo com o artigo 5º LXIII da Constituição Federal, que proíbe a
obrigação de depor contra si mesmo, muitos optam por não fazer o teste. nenhuma
resposta ao processo penal.

Como resultado, o judiciário está sob pressão para reeditar a Lei Seca para remover essas
inconsistências. Deste modo, em dezembro de 2012, entra em vigor a “Nova Lei Seca” que
aumentaria a multa de R$ 957,70 para R$ 1.915,40 (em caso de reincidência em 1 ano a
multa seria dobrada), eleva a uma apreensão imediata do veículo (antes o veículo
poderia ser retido até a aparição de um condutor habilitado). Além disso, a fim de
acabar com a principal dificuldade da lei, que era a possibilidade de não responder
ao processo criminal mesmo tendo ingerido bebida alcoólica, agora estava autorizado
e posto em treinamento pelos agentes públicos o uso de novas provas como vídeos,
relatos de testemunhas e afins, que sustentem o fato de o motorista estar
visivelmente embriagado, mesmo sem a realização de um teste.

Atualmente, a Lei Seca continua sendo criticada com o advento de aplicativos que
monitoram a presença de blitz nos grandes centros urbanos, e até mesmo por juristas pelo
grau de subjetividade de sua existência. Mesmo assim, tornou-se uma das políticas públicas
mais conhecidas dos últimos tempos, com maior impacto nas normas de trânsito brasileiras.

1.2 Objetivos

Por meio de ferramentas e conceitos apresentados na disciplina de Controle de Qualidade


da Escola Politécnica da UFRJ, o presente estudo objetiva analisar o comportamento de
dados estatísticos referentes ao número de homicídios no trânsito no município do Rio
de Janeiro, buscando compreender os impactos de uma nova legislação de controle da
ingestão de bebidas alcoólicas por parte de motoristas. Desse modo, pretende-se
comprovar o impacto real que esta lei provocou nos dados acima citados, antes de
2008 e após, quando esta nova legislação, conhecida como Lei Seca, entrou em
vigor. Busca-se também estudar o impacto da chamada Nova Lei Seca, que entrou em
vigor no final de 2012.

2. Metodologia da pesquisa

2.1 Dados utilizados

Figura 1: Número de veículos de passeio no município do Rio de Janeiro

Figura 2: Número de homicídio culposo no trânsito no município do Rio de Janeiro


Os dados tratados e apresentados nas tabelas deste tópico foram coletados no site do
Detran RJ que apresenta os dados de número de veículos, automóveis e motocicletas, no
período de 2003 a 2021, separados por mês.

Ao mesmo tempo, selecionamos do Instituto Data Rio, o levantamento do número de


homicídios culposos em acidentes de trânsito de 2003 a 2021, também separados por
meses.

Estes dados combinados nos permitiu gerar como primeira análise do grupo um índice do
número de homicídios culposos a cada 100.000 veículos. Este índice mostrou-se
necessário uma vez que o grupo notou a necessidade de avaliar de acordo com a taxa de,
de veículos, dado que à medida que mais veículos circulam na rua, maiores são as taxas e
maiores as chances de aumentar o número de acidentes. A taxa é calculada utilizando o
número de mortes por acidente de trânsito, dividido pelo número de veículos e depois
multiplicando por cem mil.

O resultado se dá na tabela abaixo:

Figura 3: Número de homicídio culposo no trânsito no município do Rio de Janeiro a cada 100.000
veículos.
3. Referencial Teórico

3.1 Normalidade

A distribuição normal, também chamada de gaussiana, é uma das distribuições


estatísticas de dados mais utilizada para modelagem de fenômenos naturais. Tem
como características a continuidade e a simetria em torno da média que por sua vez
coincide com a mediana e a moda. Sua distribuição tem como forma um sino como
demonstrado na imagem abaixo.

Fig 4: Distribuição Normal


A forma e posição da distribuição são parametrizadas pelas variáveis µ e σ, a média
e desvio padrão respectivamente, enquanto f(x) representa a função de densidade
de probabilidade .

3.2 Autocorrelação

A autocorrelação é a relação e influência que cada elemento de um conjunto de


dados têm entre si. A autocorrelação significa que os erros de observações
adjacentes são correlacionados. Se os erros estiverem correlacionados, a
regressão de mínimos quadrados pode subestimar o erro padrão dos
coeficientes. Os erros padrão subestimados podem fazer com que seus
preditores pareçam significativos quando na verdade eles não são.

A autocorrelação entre as séries st e st-1 (autocorrelação com lag 1) indicará como


os valores estão relacionados com seus valores imediatamente precedentes,
enquanto que a autocorrelação entre st e st-2 (autocorrelação com lag 2) fornecerá
uma relação dos valores da série st com aqueles atrasados em dois intervalos de
tempo. Em geral, para uma série temporal com n elementos, a autocorrelação com
atraso k é dada pela expressão:
Fig 4: Fórmula de autocorrelação

onde s/ é a média da série original de n elementos, admitida estacionária.

3.3 ANOVA

Análise de variância (ANOVA), testa a hipótese de que as médias de duas ou


mais populações são iguais. A ANOVA avalia a importância de um ou mais
fatores, comparando as médias de variáveis de resposta nos diferentes níveis de
fator. A hipótese nula afirma que todas as médias de população (médias de nível
de fator) são iguais, enquanto a hipótese alternativa afirma que pelo menos uma
é diferente.

Para efetuar uma ANOVA, é necessário haver uma variável de resposta contínua
e pelo menos um fator categórico com dois ou mais níveis. As análises ANOVA
exigem dados de populações aproximadamente normalmente distribuídas com
variâncias iguais entre fatores.

3.4 Séries temporais

Uma série temporal é um conjunto de observações ordenadas no tempo, não


necessariamente igualmente espaçadas, que apresentam dependência serial, isto é,
dependência entre instantes de tempo. Uma grande quantidade de fenômenos de
natureza física, biológica, econômica, etc. pode ser enquadrada nesta categoria. A
maneira tradicional de analisar uma série temporal é através da sua decomposição
nas componentes de tendência, ciclo e sazonalidade.

A tendência de uma série indica o seu comportamento “de longo prazo”, isto é, se
ela cresce, decresce ou permanece estável, e qual a velocidade destas mudanças.
Neste trabalho, a série precisa ter uma tendência constante em torno da média,
porque os dados não podem ser autocorrelacionados, precisam ter comportamentos
aleatórios e serem estacionários.

Fig 5: Tendências de uma série temporal

3.5 Estacionariedade de uma série

A estacionariedade numa série temporal significa que os dados oscilam sobre uma
média constante, independente do tempo, com a variância das flutuações
permanecendo essencialmente a mesma. Neste trabalho, as séries são
estacionárias.

Uma série temporal é estacionária se o processo aleatório oscilar em torno de um


nível médio constante. Séries temporais sazonais ou com tendência linear ou
exponencial são exemplos de séries temporais com comportamento não
estacionário. A condição de estacionariedade de 2a ordem implica em: média do
processo constante e variância do processo constante.

4.0 Análise de dados e discussão de resultados


4.1 Tratamento de dados

O objetivo do trabalho é analisar a eficácia da Lei Seca que, em 2008, foi implementada a
fim de reduzir a ingestão de bebidas alcoólicas e promover a mudança de hábitos da
população brasileira de forma a acionar a regressão de acidentes de trânsito. Contudo, o
presente estudo, de nível acadêmico, possui limitações para uma análise mais profunda
sobre a eficácia da lei em questão, uma vez que há diversas variáveis que influenciam na
eficácia da lei e acidentes de trânsito. Então, foi analisada o comportamento das taxas de
homicídios culposos no trânsito, mortes causadas sem intenção de matar, a partir do ano
em que a lei foi implementada.
Para isso foi feita a relação entre o número de vítimas de homicídio culposo no trânsito em
relação ao número de veículos de passeio (automóveis e motocicletas) de cada mês de
2003 até 2021, uma vez que o número de veículos vem crescendo ao longo do tempo,
então, para análise faz mais sentido fazer relação através da taxa de vítimas sobre a
quantidade de veículos multiplicado por 100 mil, valor proporcional que permite a
comparação de populações de veículos de tamanhos diferentes a cada mês.
Em um primeiro momento foi feito um relatório resumo dos dados de taxas estatísticas
básicas como média e desvio padrão dos dados, além disso, foi possível perceber através
de teste de normalidade e do gráfico de histogramas que a distribuição dos dados não
possui semelhança à distribuição normal. No histograma, percebe-se uma assimetria
acentuada para o lado esquerdo. Ao fazer o gráfico de probabilidade acumulada tem-se
mais um indício de que a distribuição dos dados em questão não seguem uma distribuição
normal, os dados, como é possível perceber no gráfico, sobressaem as linhas de
distribuição normal e o valor-p menor que o nível de significância adotado de 0,05. Portanto,
rejeita-se a hipótese que seja uma distribuição normal.

Figura 7: Relatório resumo de homicídios a cada 100.000 veículos 2003-2021


Figura 8: Gráfico de probabilidade
Ao colocar os dados em uma série temporal foi possível perceber três grupos de
dados com médias diferentes, apontando a redução no número de vítimas por
homicídios de 2003 até 2021. O primeiro grupo faz referência aos anos de
2003-2008, o segundo de 2009-2013 e o terceiro de 2014 até 2021. No gráfico de
boxplot pode-se perceber que, além da média, o primeiro grupo de dados possui
grandes taxas de desvio padrão que vem diminuindo ao longo dos anos com o
segundo e terceiro grupo.
Figura 9: Gráfico de séries temporais de homicídios a cada 100.000 veículos por mês 2003-2021

Figura 10: Gráfico de boxplot de homicídios a cada 100.000 veículos 2003-2021


O grupo resolveu fazer a divisão desses dados de 2003-2021 em três grupos e
analisá-los separadamente, uma vez que apresentam comportamentos diferentes
entre eles com o passar do tempo.
4.2 Teste de Normalidade

4.2.1 Grupo 1

Figura 11:Relatório resumo do grupo 1 2003-2008

No relatório resumo produzido através da ferramenta Minitab onde é possível


visualizar o histograma com as frequências dos dados, tal qual no grupo 1
apresenta-se uma razoável semelhança com uma distribuição normal. Como o
valor-p é maior que o nível de significância adotado, então não rejeita-se a hipótese
nula de que os dados seguem uma distribuição normal. No gráfico de probabilidade
acumulado abaixo percebe-se que os pontos de dados ficam relativamente próximos
à linha de distribuição normal ajustada (a linha contínua do meio do gráfico).
Figura 12: Gráfico de probabilidade do Grupo 1 2003-2008
4.2.2 Grupo 2

Figura 13: Relatório resumo do grupo 2 2009-2013


Figura 14: Gráfico de probabilidade do Grupo 2 2009-2013

No grupo 2, no relatório resumo o histograma apresenta-se com semelhança à


distribuição normal. Como o valor-p é maior que o nível de significância adotado de
0,05, então não rejeita-se a hipótese de que os dados seguem uma distribuição
normal. No gráfico de probabilidade acumulado acima percebe-se também que os
pontos de dados ficam relativamente próximos à linha de distribuição normal
ajustada e dentro das linhas limites.

4.2.3 Grupo 3

O histograma referente ao grupo 3 apresenta-se com uma leve semelhança à


distribuição normal. Como o valor-p é maior que o nível de significância adotado de
0,05, então não rejeita-se a hipótese de que os dados seguem uma distribuição
normal. No gráfico de probabilidade acumulado, os pontos de dados ficam
relativamente próximos à linha de distribuição normal ajustada e dentro das linhas
limites.
Figura 15: Relatório resumo do grupo 3 2014-2021

Figura 16: Gráfico de probabilidade do Grupo 3 2014-2021


Figura 17: Gráfico de Histograma dos Grupo 1, Grupo 2 e Grupo 3.

No gráfico acima é possível visualizar as três distribuições de cada grupo lado a lado, assim
fica fácil perceber que a média do grupo 1 é a maior entre os 3 grupos e vem diminuindo ao
longo do tempo, além de ser o grupo com maior desvio padrão entre os dados. O momento
pós Lei Seca referente ao grupo 2 as taxas de média e desvio padrão decaem, e ainda
mais, no grupo 3, mais recente, que apresenta a menor média e menor desvio padrão entre
eles.

4.3 Teste de Autocorrelação

4.3.1 Grupo 1

Foi utilizada a ferramenta do Minitab para análise de autocorrelação dos dados em cada
grupo. Como é possível observar no gráfico abaixo referente ao grupo 1, não há nenhum
lag ultrapassando os limites de significância.Logo, o grupo 1 não possui dados
autocorrelacionados.
Figura 18: Gráfico de autocorrelação do Grupo 1 2003-2008

4.3.2 Grupo 2

Figura 19:Gráfico de autocorrelação do Grupo 2 2009-2013


O mesmo acontece para o grupo 2: não há nenhum lag ultrapassando os limites de
significância de 0,05, demonstrando assim que não há correlação significativa entre os
dados.

4.3.3 Grupo 3

Figura 20: Gráfico de autocorrelação do Grupo 3 2014-2021

Já no grupo 3, é possível perceber pelo gráfico acima que há uma correlação no lag
1 que cresce até o lag 2 de forma significativa, uma vez que ultrapassam o limite
superior de significância. Dessa maneira, pode-se concluir que a correlação para
esses lags não é igual a zero. Apesar de existir um correlação no lag 1 e 2, isto
não mostra que o grupo 3 é autocorrelacionado, pois nos restantes dos lags não
existe correlação, mostrando que as amostras dos grupo 3 possuem
comportamento aleatório e não cíclico ou com alguma corrida crescente ou
decrescente, mostrando que o termo posterior tem correlação apenas com o
primeiro e o segundo termo anterior da série temporal ( Lag 1 e Lag 2).
4.4 ANOVA

4.4.1 Teste F ANOVA de Fator Único para diferenças entre mais de duas
médias aritméticas

Quando é analisada uma variável numérica e determinados pressupostos são


atendidos, pode-se utilizar a análise de variância (ANOVA) para comparar as médias
aritméticas dos grupos. O modelo que utilizamos é conhecido como ANOVA de fator
único, que é uma extensão do teste t de variância agrupada.

4.4.2 Análise dos pressupostos


● Teste de homocedasticidade. Em análise de variância (ANOVA), há um pressuposto
que deve ser atendido que é de os erros terem variância comum, ou seja, terem
homocedasticidade.
● Os erros são independentes e provenientes de uma distribuição normal com média
igual a zero e variância constante.
● Os grupos comparados apresentam a mesma variância
● Independência entre as amostras

A seguir vamos analisar os gráficos de resíduos gerados quando foi feito o teste da
ANOVA no minitab:

Figura 21: Gráficos de resíduos do grupo 1, grupo 2 e grupo 3


O gráfico de probabilidade normal de resíduos é utilizado para verificar a pressuposição de
que os resíduos são distribuídos normalmente,para que isso aconteça o gráfico deve
apresentar os resíduos que seguem aproximadamente uma linha reta, o que foi o caso
encontrado no gráfico de probabilidade normal dos resíduos acima.

Já o gráfico de resíduos versus ajustes é feito para verificar a pressuposição de que os


resíduos são aleatoriamente distribuídos e têm variância constante. De maneira ideal, os
pontos devem cair aleatoriamente em ambos os lados de 0, sem padrões reconhecíveis nos
pontos. Pela análise do gráfico, os pontos possuem uma simetria em torno do ponto zero,
mostrando que os resíduos são aleatoriamente distribuídos e têm variância constante.

O histograma dos resíduos é para determinar se os dados são assimétricos ou se incluem


outliers. Ele precisa ter um formato de sino e ser simétrico, e isto também é verificado no
gráfico feito no minitab. Com isso, todos os pressupostos para o teste ANOVA foram
verificados e validados.

Sendo os grupos 1, 2 e 3 não autocorrelacionados, mostra que as variáveis são aleatórias e


independentes e que são estacionárias, ou seja, variam em torno de uma média, e com isso
não possui nenhuma ciclicidade, movimentos crescentes ou decrescentes.

4.4.3 Configurações no MINITAB

Para criar os gráficos e fazer o teste F da anova foram utilizados as seguintes


configurações no minitab:
Figura 22: Passo 1

Figura 23: Passo 2


Figura 24: Passo 3

4.4.4 Teste F ANOVA

Os testes de hipótese contêm duas hipóteses (proposições), a hipótese nula (H0) e


a hipótese alternativa (H1). A hipótese nula é a proposição inicial e, em geral, é
definida por pesquisas prévias ou pelo senso comum. A hipótese alternativa é
aquela que você acredita que pode ser verdadeira. Pelo que foi analisado em
nossos estudos, existe uma diferença estatisticamente significativa entre as médias
dos grupos, devido a um dos fatores que é o rigor da lei ao longo do tempo, e isso
teve efeitos na taxa de mortes no trânsito.

Teste de hipótese feito:

ANOVA encontrada:
Figura 25: Resultados da análise de variância
O processo de decisão de um teste de hipótese é baseado no valor-p, que indica a
probabilidade de se rejeitar falsamente a hipótese nula quando ela é verdadeira.Se o
valor-p for menor ou igual a um nível de significância (denotado por α)
predeterminado, a hipótese nula deve ser rejeitada e a hipótese alternativa deve
afirmada.

Se o valor-p for maior que o nível α, a hipótese nula não pode ser rejeitada e a
hipótese alternativa não tem apoio.

Com um α de 0,05, o valor-p=0,0000 na tabela Análise de Variância fornece


evidência suficiente para concluir que as taxas de mortes entre os grupos 1,2 e 3
são significativamente diferentes.

4.4.5 Procedimento de Tukey-Kramer

O procedimento de Tukey-Kramer realiza múltiplas comparações para determinar


quais grupos são diferentes uns dos outros, no teste F, ele apenas apresenta que as
médias não são todas iguais. Deste modo, vamos aprofundar ainda mais em nossas
análises. Teste de hipótese feito:

Hipótese nula :Todas as variâncias são iguais


Hipótese alternativa : No mínimo uma variância é diferente
Nível de significância α = 0,05
Figura 26: Informações do agrupamento
As informações no agrupamento mostram que todas os grupos não compartilham nenhuma
letra diferente entre si, mostrando que eles são significativamente diferentes.

Figura 27: Procedimento de Tukey-Kramer

Pelo teste simultâneo de Tukey, quando você compara a DMS( diferença mínima
significativa) que está no intervalo de confiança e ela for menor que a diferença das
médias, isto significa que a taxa de morte entre os grupos comparados são
diferentes. Então, analisando todas as diferenças entre os grupos, mostra-se que
todos eles diferem, pois DMS< Diferença de Médias. Isto pode ser atestado pelo
valor p que é menor que 0,05, que é valor usado para o α.
Na imagem abaixo, nos intervalos de confiança entre grupos, o valor 0 não está
contido no intervalo, mostrando também que a diferença entre as médias dos grupos
são diferentes.Conseguimos deste modo, provar de diferentes formas que a média
entre os grupos são diferentes.
Figura 28: Intervalos de confiança de 95% de Tukey

4.4.6 Teste de Levene para homogeneidade da Variância

Embora o teste F de ANOVA de fator único seja relativamente robusto no que diz respeito
ao pressuposto de igual variância entre os grupos, grandes diferenças dentro dos grupos
podem afetar significativamente o nível de significância e a eficácia do teste F. Um
procedimento com elevada eficácia estatística é o teste de Levene. Para testar a
homogeneidade de variâncias, você utiliza a hipótese nula apresentada a seguir:

Hipótese nula :Todas as variâncias são iguais


Hipótese alternativa : No mínimo uma variância é diferente
Nível de significância α = 0,05

Resultado do teste:
Figura 29: Teste de igualdade de variâncias do grupo 1, grupo 2 e grupo 3

Sendo p-valor<0,05, você rejeita a hipótese nula e pode atestar que existe uma
diferença significativa em relação a variância em pelo menos um dos grupos.
Analisando graficamente o boxplot dos grupos 1,2 e 3 você consegue identificar que
existe uma variância maior no grupo 1 em relação ao grupo 2 e 3.

5.0 Conclusão

A partir dos testes e análises feitas ao longo do trabalho pode-se concluir , então,
que o número de mortes causadas por acidentes de trânsito reduziu
significativamente após a implantação da Lei Seca em 2008 no município do Rio de
Janeiro. A ANOVA realizada e em seguida o Procedimento de Tukey-Kramer foram
importantes para concluir que as médias de mortes são significativamente diferentes
ao longo do tempo, entre os grupos 1(2003-2008), 2 (2009-2013) e 3 (2013-2021).
Embora existam diversas variáveis que influenciam nos acidentes de trânsito além
do consumo de bebidas alcoólicas, o objetivo foi analisar se houve redução
significativa no número de mortes após implantação e reformulação da lei que
aconteceu em 2008 e 2012 respectivamente, o que pôde ser confirmada conforme
os resultados das análises apresentadas.
O que poderia angariar futuros trabalhos, seria fazer uma análise de regressão
múltipla, buscando entender quais são as variáveis que explicam o número de
mortes no trânsito no município do Rio de Janeiro, podendo ter entre essas variáveis
explicativas :
● Número de frota de veículos
● Quantidade de motoristas de aplicativos (Uber, 99 taxi, Cabify entre outros)
● Pandemia
● Quantidade de Blitz
Podemos qualificar o evento da Pandemia como uma variável Dummy, porque mais
pessoas ficaram em casa e com isso reduziu o número de acidentes, pode ser uma
teoria a ser defendida. As variáveis dummy’s permitem a incorporação de efeitos de
valores qualitativos no modelo. Essas incorporadas ao modelo podem assumir dois
valores: Zero e Um. Sendo 1 quando a característica está presente e 0 nos casos
quando a pandemia não existia.
6.0 Bibliografia

DETRAN . Disponível em <https://www.detran.rj.gov.br/_estatisticas.veiculos/02.asp> acesso em


27/06/2022.

DATA RIO. Disponível em


<https://www.data.rio/documents/3f005b3a49984dfb81df12c6f862c0a2/abou>acesso em 24/06/2022.

GUJARATI, D. N., PORTER, D. C. Econometria Básica. 5ª edição, Editoria Bokman, 2011.

MONTGOMERY, D. C. Introdução ao Controle Estatístico da Qualidade. 4a edição, editora LTC,


2012.

SUPORTE MINITAB. Disponível em <https://support.minitab.com/pt-br/minitab/18/> acesso em


07/07/2022.

TJDFT. Disponível em
<https://www.tjdft.jus.br/institucional/imprensa/campanhas-e-produtos/direito-facil/edicao-semanal/lei-
seca>

Você também pode gostar