Você está na página 1de 4

O que é a Estatística?

A estatística é a ciência que consiste na recolha, manipulação e classificação de dados tendo


em vista o conhecimento de determinado fenómeno e a possibilidade de, a partir desse
conhecimento, inferir possíveis novos resultados.

A estatística é responsável pelo desenvolvimento cientifico em geral. Para além da sua


aplicabilidade nas ciências naturais, na medicina, na agronomia e na economia, a estatística
constitui um suporte de cientificidade para as ciências humanas e sociais.

Desta forma, a estatística constitui-se fundamentalmente como um método e não como uma
teoria, na medida em que o seu objetivo é descrever os fenómenos e não tanto explica-los.

Objetivo principal da estatística?

Tem como objetivo analisar os dados recolhidos, descrevendo-os e organizando-os para


posterior interpretação e eventual utilização na previsão de acontecimentos futuros. Tem
assim a finalidade de proporcionar um conjunto de informações e conhecimentos que
permitam ao homem uma melhor adaptação e controlo do meio em que vive.

Individualidades importantes relacionadas com a estatística?

Girolamo Cardano (1501-1576)

Italiano reconhecido pelas suas contribuições à matemática e à medicina. No seu trabalho


relacionado com o jogo, Liber de Ludo Aleae fez a primeira abordagem do que seria um cálculo
sistemático de probabilidades. Há quem considere que Cardano pode realmente ser o pai da
teoria das probabilidades e das estatísticas modernas.

Blaise Pascal (1623-1662) e Pierre de Fermat (1607-1665)

Foram reconhecidos como responsáveis por criar a base para a teoria da probabilidade. As
cartas trocadas entre ambos, contendo reflexões sobre a resolução de problemas de jogos de
azar, são consideradas os documentos fundadores da Teoria das Probabilidades.

Edmund Halley (1656-1742)

Astrónomo e matemático inglês. Foi o primeiro a relacionar mortalidade e a idade numa


população. Em 1693 fez a publicação de tabelas de mortalidade para a cidade de Breslau e
posteriormente foram geradas abordagens estatísticas através de tentativas para medir
fenómenos ou eventos dentro de uma população.

Jacques Bernoulli (1654-1705)

Dedicou-se ao estudo do Cálculo de Probabilidades e conseguiu provar a Lei dos Grandes


Números, considerado o primeiro teorema limite. Esta lei afirma que, se uma experiência é
repetido um grande número de vezes tendendo ao infinito, a frequência relativa com a qual o
evento ocorre começa a ser uma constante.
Thomas Bayes (1702-1761)

Responsável pelo conhecido “teorema de Bayes”. É conhecido como um teorema de


probabilidade inversa, no qual a probabilidade de ocorrência de um evento é calculada,
tomando como referência.

Karl Pearson (1857-1936)

Dedicou-se ao estudo da evolução de Darwin, aplicando os métodos estatísticos aos problemas


biológicos relacionados com a evolução e hereditariedade. Teve contributos extremamente
importantes para o desenvolvimento da teoria da Análise de Regressão e do Coeficiente de
Correlação, bem como do Teste de Hipóteses de Qui-quadrado. Pearson fez com que a
Estatística fosse reconhecida como uma disciplina autónoma.

William Sealey Gosset (1876-1937) desenvolveu um trabalho extremamente importante na


área de Estatística. Devido à necessidade de manipular dados provenientes de pequenas
amostras, extraídas para melhorar a qualidade da cerveja, Gosset derivou o teste t de Student
baseado na distribuição de probabilidades.

Ronald Aylmer Fisher  (1890-1962)

Estatístico, biólogo evolutivo e geneticista inglês. A sua contribuição para a Estatística


Moderna é, sem dúvida, a mais importante e decisiva de todas.   Criou uma medida alternativa
de informação apropriada para medir a incerteza sobre espaços ordenados, introduziu os
conceitos de aleatoriedade e da análise da variância e estabeleceu o conceito da
verossimilhança.

Bradford Hill (1897-1991)

Em 1965 criou o critério de causalidade de Hills. Isso ajudou a determinar, usando evidências
epidemiológicas, a relação causal entre o que é visto como a causa de uma doença e como ela
está ligada a um efeito específico.

Diz-se que a estatística, por vezes, é mentirosa!

Apesar de considerarmos a estatística fundamental para compreender a realidade,


consideramos que o seu grande problema reside na interpretação e na manipulação dos dados
obtidos. Hoje em dia, a estatística acaba por ser utiliza para sobrevalorizar ou esconder
aspectos segundo os objectivos do que está a ser estudado e analisado.

Vamos ver alguns exemplos sobre como a estatística pode ser utilizada para fins mentirosos.

O Engano da média:

Vamos observar como a média por ser enganosa e não ser representativa dos dados.
Imaginemos uma empresa com 5 funcionários. O presidente tem um vencimento de 35.000€,
o vice-presidente ganha 9.000€, o director ganha 6.000€, o chefe de divisão ganha 3.000€ e o
estagiário ganha 1.000€. A média dos vencimentos desta empresa é de 9.000€. Este valor está
sobrevalorizado, na medida em que está afectado pelo vencimento altíssimo do presidente.
Concluímos que, para que um valor médio possa ser representativo de um conjunto de valores
é necessário que a variabilidade seja pequena. Sem o devido cuidado, este erro comum pode
levar à compreensão equivocada de dados e estatísticas. Neste caso, seria melhor optar pela
mediana. A mediana colocaria todos os valores em ordem crescente e seleccionaria o valor
central. Desta forma, os valores extremos não pesariam na análise. Neste caso, a mediana é
6.000€, bem mais razoável que os 9.000€ proposto pela média.

O Problema da Amostra:

A forma como é realizada uma amostragem pode descrever algo que não condiz com a
realidade. Vamos imaginar que eu jogo a moeda ao ar 10 vezes e que em 7 dessas vezes saia
cara. Então, é possível afirmar que a moeda tem 70% de hipóteses de sair cara contra 30% de
sair coroa? Claro que não. Nesta situação, temos o problema do tamanho da amostra.
Segundo a Lei dos Grandes Números, à medida que se jogam cada vez mais moedas e se
anotam os resultados, a proporção de caras e coroas tende cada vez mais para o seu valor
verdadeiro, isto é, 50% de hipótese para cada resultado.

Aleatoriedade na escolha da amostra:

Imaginemos que temos dois candidatos às eleições autárquicas e queremos saber as


percentagens de votos de cada um. Obviamente que a escolha dos entrevistados e do local da
entrevista deverá ser aleatória, para que reflictam da forma mais aproximada possível a
opinião da população. Vamos imaginar que essa pesquisa é feita no dia e na hora de uma
manifestação contra um dos candidatos. É óbvio que, por concentrar muitas pessoas
desfavoráveis a ele, a amostra não reflectirá de forma verdadeira a opinião do todo. Neste
caso, temos uma situação em que a amostra está enviesada ou com algum problema
(propositado ou não), estando aquém da realidade.

Problemas com os Números e Taxas

Esse é uns problemas clássicos que até os mais atentos acaba por passar por despercebido. A
forma como lemos um certo índice pode enganar. Vamos a um exemplo: digamos que, numa
suposta pesquisa eleitoral, o candidato A tem a preferência de 60% dos eleitores. Outro
candidato pode utilizar o mesmo dado de maneira inversa e publicar algo como “40% dos
eleitores não aprovam o candidato A, indicam pesquisas”. Ora, o dado é o mesmo, mas a
forma de representá-lo não.

Estes e muitos outros exemplos mostraram-nos de como é fácil mentir com a estatística. É
importante estarmos alerta e atentos a estas tácticas mal intencionadas que têm como
objetivo obter vantagem sobre algo ou alguém.
Bibliografia

http://alea-estp.ine.pt

http://www.prof2000.pt/users/cfaeem/acd/Estatistica.htm

http://ine.pt

Você também pode gostar