Você está na página 1de 12

UNIVERSIDADE FEDERAL DO MARANHÃO CAMPUS DOM DELGADO

CENTRO DE CIÊNCIAS EXATAS E TECNOLÓGICAS - CCET

WILSONLINO SILVA DOS ANJOS

TEORIA DOS ERROS

São Luís - MA 2023


INTRODUÇÃO
A Teoria dos Erros é um ramo da estatística e da matemática aplicada que estuda a forma
como os erros afetam as medições e as estimativas em diferentes áreas do conhecimento. Ela
descreve as técnicas utilizadas para quantificar, analisar e controlar os erros presentes em
experimentos, pesquisas e observações.

Sua principal função é fornecer métodos para avaliar a precisão e a confiabilidade dos
resultados experimentais. Discutiremos sobre a importância dessa Teoria e como aplicá-la para
tornar mais preciso o resultado de um experimento ou medições.

DESENVOLVIMENTO
1. A Teoria dos Erros e sua utilização
A importância da Teoria dos Erros pode ser observada em diversas áreas científicas e
tecnológicas. Pois, ela desempenha um papel fundamental no avanço do conhecimento, uma vez
que permite que os cientistas obtenham resultados precisos e confiáveis em suas investigações.
Sem a compreensão adequada dos erros experimentais e a aplicação apropriada de técnicas
estatísticas, os resultados podem ser distorcidos e não refletirem a realidade.
Na Física, por exemplo, a Teoria dos Erros é essencial para a realização de medidas precisas
e a interpretação correta dos resultados, pois, ela permite que os cientistas calculem e expressem a
incerteza associada a uma determinada medida, fornecendo uma indicação da confiabilidade dos
dados obtidos. Isso é crucial para validar teorias, verificar a consistência dos resultados e tomar
decisões com base em evidências sólidas. Ela reconhece que qualquer medição realizada em um
experimento está sujeita à erros devido a uma variedade de fatores, como instrumentos imperfeitos,
condições ambientais e limitações humanas. Esses erros podem ser classificados em erros
sistemáticos e erros aleatórios.

2 ALGARISMOS SIGNIFICATIVOS
Na Teoria dos Erros, os algarismos significativos são dígitos em uma medida que contribuem
para a sua precisão e incerteza. Eles representam a informação confiável e são determinados pelas
regras básicas: todos os dígitos diferentes de zero são significativos; zeros à esquerda não são
significativos; zeros à direita são significativos se houver um ponto decimal explícito. Os
algarismos significativos são importantes para expressar corretamente a incerteza de uma medida
e evitar dar uma impressão de precisão maior do que realmente existe.

3. INCERTEZAS
Na Teoria dos Erros, a incerteza é uma medida da imprecisão ou erro associado a uma
medição. Ela representa a diferença entre o valor medido e o valor verdadeiro, que é desconhecido.
A incerteza é expressa em unidades da mesma grandeza da medida e é estimada levando em
consideração fatores como a precisão do instrumento, erros experimentais e variações ambientais.
Comunicar adequadamente a incerteza é fundamental para interpretar corretamente os resultados
experimentais e tomar decisões confiáveis. A incerteza de uma medida pode ser classificada em
dois tipos:

3.1 INCERTEZA ABSOLUTA


A incerteza absoluta é um conceito na teoria dos erros que representa a estimativa da variação
possível entre uma medida e seu valor verdadeiro. Ela leva em consideração fatores como erros
sistemáticos (que afetam a precisão da medida de forma consistente) e erros aleatórios (que
ocorrem de forma imprevisível e influenciam a precisão da medida).
A incerteza absoluta é uma estimativa da magnitude desse desvio em relação ao valor
verdadeiro e é expressa na mesma unidade da medida. Quanto maior a incerteza absoluta, maior é
a variação esperada entre a medida e o valor verdadeiro. A incerteza absoluta é importante para
entender a confiabilidade da medida e para garantir uma análise adequada dos erros na medição.
Para comunicar adequadamente a incerteza absoluta, é comum expressá-la utilizando a
notação ±, indicando um intervalo ao redor do valor medido. Por exemplo, se medirmos a massa
de um objeto como 2,5 ± 0,1 gramas, isso significa que o valor verdadeiro provavelmente está
entre 2,4 e 2,6 gramas. É importante destacar que a incerteza absoluta não indica uma faixa de
possíveis valores igualmente prováveis em torno do valor medido. Em vez disso, ela fornece uma
estimativa da imprecisão associada à medição. A incerteza absoluta é uma consideração
fundamental na Teoria dos Erros, pois permite avaliar e comunicar a imprecisão de uma medição.
Ao levar em conta a incerteza absoluta, é possível tomar decisões confiáveis e interpretar
corretamente os resultados experimentais.
3.2 INCERTEZA RELATIVA
A incerteza relativa na teoria dos erros é uma medida que permite quantificar a precisão de
uma medida em relação ao valor verdadeiro. É calculada dividindo-se a incerteza absoluta pela
medida em si. Quanto menor a incerteza relativa, mais precisa é a medida.
É uma forma útil de comparar a precisão de diferentes medidas ou expressar a incerteza de
forma proporcional ao valor medido. Para calcular a incerteza relativa, divide-se a incerteza
absoluta pelo valor medido e multiplica-se por 100 para obter o resultado em porcentagem. Por
exemplo, se a medição é 5 ± 0,2 e a incerteza relativa é calculada como (0,2 / 5) * 100, o resultado
é 4%, indicando uma incerteza relativa de 4%. A incerteza relativa é uma medida importante na
Teoria dos Erros, pois permite avaliar a precisão da medição independentemente da escala da
grandeza medida. Ela facilita a comparação entre diferentes medidas e ajuda a interpretar
corretamente os resultados experimentais.
A utilização da incerteza relativa é particularmente útil em situações em que o valor medido
é significativamente diferente de zero, pois leva em consideração a escala da grandeza e fornece
uma medida de precisão relativa à magnitude do valor. Em resumo, a incerteza relativa é uma
medida de precisão ou exatidão de uma medição em relação ao valor medido. É calculada
dividindo-se a incerteza absoluta pelo valor medido e expressa em porcentagem. É uma medida
importante para comparar e interpretar corretamente os resultados experimentais.

4. ARREDONDAMENTO
O arredondamento na teoria dos erros é um procedimento comum usado quando se deseja
expressar uma medida com menor número de algarismos significativos. Quando fazemos
medições, muitas vezes nos deparamos com valores que possuem uma quantidade excessiva de
algarismos, o que pode dificultar a leitura e a interpretação dos resultados. No arredondamento,
um valor numérico é aproximado para um valor mais próximo, levando em consideração a precisão
desejada.
Existem várias regras de arredondamento, mas a regra geral é que, se o dígito a ser eliminado
for inferior a 5, o número é arredondado para o número anterior. Se o dígito a ser eliminado for
igual ou superior a 5, o número é arredondado para o número seguinte. Ao realizar o
arredondamento, é importante considerar a incerteza associada à medida original. Geralmente, o
resultado arredondado deve ter a mesma quantidade de algarismos significativos que a incerteza.
Por exemplo, se a medida original for 5.32 ± 0.05, o resultado arredondado seria expresso como
5.3 ± 0.1.
O arredondamento é uma prática comum para melhorar a apresentação dos resultados e
simplificar cálculos, mas é importante ter em mente que ele introduz uma certa imprecisão na
medida. Portanto, é recomendado manter o número original com todos os algarismos significativos
durante cálculos intermediários e realizar o arredondamento apenas no resultado final.

5. FLUTUAÇÕES NAS MEDIDAS


As flutuações nas medidas na teoria dos erros referem-se às variações imprevisíveis e
aleatórias que ocorrem ao realizar uma medição. Essas flutuações podem resultar de diversos
fatores, como imprecisões nos instrumentos de medição, erros humanos, influências ambientais e
outras fontes de incerteza. As flutuações nas medidas são inevitáveis e podem afetar a precisão e
a confiabilidade dos resultados obtidos. Elas podem causar diferenças entre o valor medido e o
valor verdadeiro da grandeza que está sendo medida.
Para lidar com as flutuações nas medidas, é comum utilizar a estatística e as técnicas de
análise de dados. Por exemplo, é possível realizar várias medições repetidas da mesma grandeza e
calcular a média dos resultados para obter uma estimativa mais confiável. Além disso, é importante
considerar a incerteza associada às flutuações nas medidas.
A incerteza é uma medida que quantifica a variação possível e fornece uma indicação da
confiabilidade dos resultados. Ela leva em conta tanto as flutuações nas medidas quanto outros
erros sistemáticos que podem estar presentes. Em resumo, as flutuações nas medidas na teoria dos
erros referem-se às variações aleatórias e imprevisíveis que ocorrem durante uma medição. Elas
podem ser tratadas usando técnicas estatísticas e considerando a incerteza associada para
determinar a confiabilidade dos resultados obtidos.

5.1 ERROS SISTEMÁTICOS


Erros sistemáticos na teoria dos erros são desvios sistemáticos e consistentes entre os valores
medidos e os valores verdadeiros de uma grandeza. Esses erros podem ser causados por vários
fatores, como calibração inadequada de instrumentos, viés na seleção de amostras, erros de
montagem ou imperfeições nos procedimentos experimentais. Aqui estão alguns exemplos de
erros sistemáticos:
 Erro de paralaxe: ocorre quando o observador não está alinhado corretamente com a
escala graduada em um instrumento de medição, o que leva a uma leitura incorreta.
 Erro de zero: é um desvio sistemático que ocorre quando um instrumento de medição não
indica zero quando nenhuma quantidade está sendo medida. Por exemplo, uma balança mal
calibrada pode mostrar um valor diferente de zero mesmo quando nada está sobre ela.
 Erro de escala: ocorre quando a escala do instrumento de medição é mal projetada ou mal
calibrada. Por exemplo, uma régua ou termômetro com divisões imprecisas pode levar a
leituras incorretas.
 Erro de seleção de amostras: ocorre quando há uma tendência sistemática na seleção das
amostras para uma medição. Por exemplo, se uma medição estiver sendo realizada apenas
em áreas urbanas, pode haver um viés sistemático na medição da poluição atmosférica.

5.2 ERROS ALEATÓRIOS


Erros aleatórios na teoria dos erros referem-se a variações imprevisíveis e não sistemáticas
que ocorrem ao realizar medições repetidas de uma mesma grandeza. Esses erros são causados por
uma variedade de fatores, como flutuações nas condições ambientais, limitações nos instrumentos
de medição e erros de leitura ou interpretação. Em um conjunto de medições repetidas, os erros
aleatórios podem fazer com que os valores medidos variem em torno de uma média. Aqui estão
alguns exemplos de erros aleatórios:
 Flutuações ambientais: variações nas condições ambientais, como temperatura, umidade
e pressão, podem afetar as medições. Por exemplo, em um experimento de física, uma mudança
repentina na temperatura ambiente pode afetar os resultados obtainedos.
 Erro de leitura: pequenas variações na interpretação de uma escala ou instrumento de
medição podem resultar em erros aleatórios. Por exemplo, ao ler uma régua, a posição exata do
ponteiro ou marca deve ser determinada, o que pode levar a pequenas variações nas leituras.
 Erro de instrumental: todos os instrumentos de medição têm uma limitação de precisão
intrínseca. Estas limitações podem ser a causa de erros aleatórios. Por exemplo, a imprecisão de
uma balança eletrônica pode resultar em pequenas variações nas medidas.
 Erros de amostragem: quando uma amostra é selecionada para medição, pode haver uma
tendência aleatória na escolha. Isso pode causar uma variabilidade imprevisível nas medições. Por
exemplo, ao conduzir uma pesquisa por amostragem, a variação nas respostas dos indivíduos
selecionados pode ser um erro aleatório.
É importante reconhecer e levar em consideração os erros aleatórios ao interpretar os
resultados de uma medição. Ao realizar medições repetidas, a média dos valores obtidos é
frequentemente usada para minimizar a influência dos erros aleatórios e obter uma estimativa mais
precisa do valor verdadeiro da grandeza sendo medida.

5.3 ERROS GROSSEIROS


Erros grosseiros na teoria dos erros são erros significativos e óbvios que ocorrem durante uma
medição. Esses erros são normalmente causados por falhas humanas, como equívocos, distrações,
má interpretação dos dados ou problemas técnicos evidentes. Ao contrário dos erros sistemáticos
e aleatórios, os erros grosseiros não seguem um padrão previsível.
Esses erros podem ser facilmente identificados e geralmente são muito diferentes dos valores
esperados. Eles incluem situações em que valores medidos estão fora do intervalo esperado ou
quando ocorrem leituras muito extremas ou inconsistentes em comparação com outras medições.
Aqui estão alguns exemplos de erros grosseiros:
 Leitura incorreta: ao fazer uma leitura na escala de um instrumento de medição, pode-se
cometer um erro grosseiro e registrar uma leitura completamente errada. Por exemplo, se
alguém lê “3” em vez de “8” em uma escala, isso resultaria em um erro grosseiro.
 Manipulação inadequada do instrumento: se o instrumento de medição não for usado
corretamente ou se houver falha na manipulação adequada, isso pode levar a erros
grosseiros. Por exemplo, segurar uma balança de maneira irregular ou não ajustar
corretamente um termômetro antes da medição.
 Erro de cálculo: ao realizar cálculos durante a análise dos dados, um erro grosseiro pode
ocorrer, como somar ou subtrair incorretamente os valores registrados. Isso pode levar a
resultados significativamente diferentes dos esperados.
 Dados errôneos: pode ocorrer a inserção incorreta de dados ou a troca de valores durante
a transcrição ou armazenamento. Isso pode levar a erros grosseiros, como usar
acidentalmente um valor completamente errado durante o cálculo ou análise.
Os erros grosseiros são geralmente fáceis de detectar e devem ser descartados ou corrigidos,
pois podem afetar drasticamente os resultados e a interpretação dos dados. Eles exigem cuidado e
atenção ao realizar a medição para minimizar esse tipo de erro.

6. TEORIA DOS ERROS APLICADA A UM CONJUNTO DE MEDIDAS


EXPERIMENTAIS
Ao fazer medições experimentais obtemos uma série de valores que em geral não são
idênticos. Nosso objetivo é saber qual deve ser o valor mais provável da grandeza medida, qual a
diferença entre este valor e cada valor medido em particular. Com a finalidade de representar
matematicamente estes efeitos que define-se quantidades demostradas pela estatística.

6.1 VALOR MÉDIO DE UMA GRANDEZA


Na Teoria dos Erros, o valor médio de uma grandeza é uma medida estatística que representa
o ponto central dos valores medidos de uma determinada grandeza. O valor médio é calculado pela
soma de todos os valores medidos, dividida pelo número total de observações. O objetivo de
calcular o valor médio é obter uma estimativa do valor verdadeiro da grandeza em estudo. Ao
tomar várias medidas, estamos sujeitos a erros aleatórios e variações nas condições experimentais,
o que pode levar a resultados individuais que se afastam do valor verdadeiro. Ao calcular o valor
médio, estamos tentando minimizar o efeito desses erros aleatórios, uma vez que eles tendem a se
cancelar em torno da média. O valor médio é uma medida importante porque nos fornece uma
estimativa centralizada dos dados e nos ajuda a reduzir o impacto dos erros aleatórios nas nossas
conclusões.
É importante mencionar que o valor médio pode ser influenciado por erros sistemáticos, que
afetariam todas as medições de maneira consistente. Portanto, é fundamental minimizar e corrigir
esses erros sistemáticos antes de calcular o valor médio. Além disso, é necessário ter em mente
que o valor médio sozinho não é suficiente para caracterizar totalmente a distribuição dos dados.
É fundamental considerar também outras medidas estatísticas, como o desvio padrão, para avaliar
a dispersão dos valores em relação à média e a incerteza das medições realizadas. Em resumo, o
valor médio é a média dos valores medidos e busca estimar o valor verdadeiro de uma grandeza
ao reduzir o efeito dos erros aleatórios. Ele é uma medida estatística importante na Teoria dos
Erros para caracterizar a tendência central dos dados.
6.2 DISPERSÃO
Refere-se à extensão em que os pontos de dados de uma amostra ou conjunto de dados estão
distantes uns dos outros. A dispersão é uma medida estatística utilizada para avaliar a variabilidade
ou a dispersão dos valores em relação à média dos dados. Existem várias medidas de dispersão
comumente usadas, como a variância, o desvio padrão, a amplitude e o intervalo interquartil. Cada
medida fornece uma perspectiva diferente sobre a dispersão dos dados.
Uma dispersão maior indica que os dados têm uma variabilidade mais ampla, com valores
mais espalhados em relação à média. Por outro lado, uma dispersão menor indica que os dados
têm uma variabilidade mais estreita, com valores mais próximos à média. A dispersão é importante
na teoria dos erros porque ajuda a compreender a confiabilidade e a precisão das medições ou
observações realizadas. Quanto maior for a dispersão, maior será a incerteza associada aos valores
observados e maior a probabilidade de erros nas medições. Portanto, uma boa compreensão da
dispersão é fundamental para a análise e interpretação corretas dos dados na teoria dos erros.

6.3 VARIÂNCIA
É uma medida estatística que quantifica a dispersão dos valores de um conjunto de dados em
relação à média. Em outras palavras, ela mede a variabilidade dos dados em torno da média. Na
teoria dos erros, a variância é usada para avaliar o grau de precisão e confiabilidade das medições.
Ela é calculada como a média dos quadrados das diferenças entre cada valor e a média do conjunto
de dados. Quanto maior for a variância, maior será a dispersão dos dados.
A variância é expressa em unidades ao quadrado, o que pode dificultar sua interpretação direta.
Por essa razão, é comum usar a raiz quadrada da variância, conhecida como desvio padrão, que
possui a mesma unidade de medida dos dados originais. A variância é um conceito central na teoria
dos erros e é fundamental para o cálculo de incertezas, análise de regressão, estimativa de
parâmetros e diversos outros métodos estatísticos.

6.4 DESVIOS
Na Teoria dos Erros, são comumente considerados três tipos de desvios:
 Desvio absoluto médio (DAM): O DAM é uma medida de dispersão que quantifica o grau
de afastamento dos valores medidos em relação à média. Para calcular o DAM, somamos
os desvios absolutos de cada valor medido em relação à média e dividimos pelo número
total de observações. Quanto maior o DAM, maior a dispersão dos dados em relação à
média.
 Desvio padrão (DP): O DP é outra medida de dispersão que avalia o quanto os valores
medidos se afastam da média. Ele é calculado como a raiz quadrada da variância, que é a
média dos quadrados dos desvios em relação à média. O DP é uma medida mais precisa e
sensível à dispersão do que o DAM. Um DP maior indica uma maior variabilidade dos
dados em relação à média.
 Desvio relativo: O desvio relativo é uma medida que relaciona o DP com a média dos
dados, expressando a dispersão relativa em relação à média. É calculado dividindo o DP
pela média e multiplicando por 100 para obter uma porcentagem. O desvio relativo é útil
para comparar a dispersão de diferentes conjuntos de dados em que as médias são
significativamenteentemente, a confiabilidade dos resultados obtidos diferentes.
Esses desvios são importantes para aval. Eles nos fornecem informações sobre a dispersão
dos dados em relação à média e nos permitem entender aiar a qualidade das medições
experimentais e, consequ precisão das medições. Vale ressaltar que a escolha do desvio mais
apropriado depende do contexto e da natureza dos dados em questão.

7. PROPAGAÇÃO DE ERROS
A propagação de erros na teoria dos erros refere-se ao processo de estimar as incertezas em
um cálculo ou equação que envolva medidas com diferentes incertezas. Quando realizamos
cálculos com quantidades medidas, as incertezas nas medidas individuais podem se propagar para
a incerteza final do resultado.
A propagação de erros é importante para avaliar a confiabilidade das grandezas derivadas a
partir de medições diretas. Ela permite quantificar as incertezas associadas a resultados calculados
e tomar decisões informadas com base nessas estimativas. A propagação de erros é realizada
usando regras matemáticas específicas. As principais regras são:
 Regra da soma/subtração: A incerteza combinada de duas quantidades medidas somadas
ou subtraídas é obtida somando-se as incertezas individuais.
 Regra da multiplicação/divisão: A incerteza combinada de duas quantidades medidas
multiplicadas ou divididas é calculada somando-se as incertezas relativas (em termos
percentuais) das quantidades individuais.
 Regra da potência: A incerteza de uma quantidade medida elevada a uma potência é
obtida multiplicando-se a incerteza relativa pela potência absoluta do resultado.
Essas regras permitem estimar a incerteza final de um cálculo com base nas incertezas das
medidas individuais. É importante ressaltar que a propagação de erros assume algumas suposições,
como a independência das medidas e a linearidade das relações entre as grandezas. A propagação
de erros é uma ferramenta valiosa na análise de dados experimentais, ajudando a quantificar as
incertezas em resultados calculados e a avaliar a confiabilidade das conclusões baseadas nessas
medidas.

8. CONCLUSÃO
A Teoria dos Erros desempenha um papel fundamental na ciência e na pesquisa, fornecendo
uma estrutura sólida para a análise e interpretação de dados experimentais. Ela permite uma
compreensão mais precisa das incertezas associadas a medições e cálculos, tornando possível
tomar decisões informadas e confiáveis com base nessas estimativas.
A importância da Teoria dos Erros reside em sua capacidade de fornecer uma maneira de
quantificar as incertezas e a variabilidade presente nos dados experimentais. Ela ajuda a estimar a
confiabilidade das medições, identificar erros sistemáticos e aleatórios, e avaliar a precisão e a
precisão dos instrumentos de medição. A Teoria dos Erros também desempenha um papel crucial
na propagação de incertezas em cálculos matemáticos e na análise estatística de resultados. Ela
permite que os cientistas obtenham uma visão mais completa e precisa dos resultados, levando em
consideração as incertezas associadas.
Além disso, a Teoria dos Erros é essencial para a validação e a comparação de teorias
científicas. Ao considerar e quantificar as incertezas presentes nos dados experimentais, é possível
verificar se os resultados experimentais são consistentes com as previsões teóricas. Em resumo, a
Teoria dos Erros é uma ferramenta indispensável para a ciência e para a pesquisa, permitindo uma
análise crítica, confiável e precisa dos dados experimentais. Sua utilização adequada contribui para
a tomada de decisões fundamentadas, para o avanço do conhecimento científico e para a
construção de bases sólidas para futuras investigações.
REFERÊNCIAS BIBLIOGRÁFICAS

MALVEZZI, André Luiz. Laboratório de Física I - Engenharias. André Luiz Malvezzi, 2023. Disponível
em: http://wwwp.fc.unesp.br/~malvezzi/LabFisIEng.HTML. Acesso em: 02/09/2023.

Vinicius. Teoria dos erros. Monolito Nimbus, 2023. Disponível em:


https://www.monolitonimbus.com.br/teoria-dos-erros/. Acesso em: 02/09/2023.

Você também pode gostar