Você está na página 1de 7

De forma geral, a obra “breve história da estatística” de José Maria Pompeu

Memória começa citando a demanda gerada pela sociedade por uma forma de
contagem geral de dados e de se tirar conclusões lógicas com aquela
contagem, seja a finalidade da contagem gerar dados sobre a média de
mortalidade de uma região, até contar e estudar a probabilidade de
determinado resultado ser atingido num jogo de azar, que foram reconhecidos
ao longo da história como um tipo de entretenimento bastante ligado à
matemática e à lógica. Contribuidores notáveis deste raciocícnio estatístico
neste período foram John Graunt (1620-1674), com seu pequeno livro “Natural
and Political Observations Mentioned in a Following Index and Made upon the
Bills of Mortality”, no qual mesmo sem grande conhecimento médico ou
matemático, a organização de dados categorizou e simplificou a análise sobre
nascimentos e mortes de recém nascidos em sua região. Também vale citar
William Petty (1623-1683), quem caracterizou aritmética política.

Um fato consumado sobre a história da estatística como objeto de estudo e


pesquisa pela sociedade é que vários conhecedores de áreas de estudo
diferentes deram suas contribuições para o crescimento da teoria (e
principalmente a prática) da mesma, muitos utilizando do método lógico-
dedutivo obtiveram uma clareza maior da disposição de dados disponíveis em
suas áreas, usando como exemplo temos:

Matemática: a estatística usa conceitos matemáticos, como a teoria das


probabilidades, para modelar e analisar dados. Laplace foi um matemático e
astrônomo de suma importância para a evolução da estatística como ciência
criando o teorema central do limite, por exemplo.

Filosofia: a estatística lida com questões relacionadas à incerteza, à inferência


e à validade das conclusões, que são tópicos centrais da filosofia.

Biologia: a estatística é usada em áreas como a biologia para analisar dados


sobre populações, espécies e ecossistemas.

Medicina: a estatística é usada na medicina para avaliar a eficácia de


tratamentos, estudar a prevalência de doenças e realizar estudos clínicos.

Economia: a estatística é usada na economia para estudar o comportamento


dos mercados, fazer previsões econômicas e avaliar políticas públicas.

Psicologia: a estatística é usada na psicologia para analisar dados sobre


comportamento humano, personalidade, cognição e emoções.

Engenharia: a estatística é usada na engenharia para avaliar a qualidade de


produtos e processos, fazer previsões de desempenho e realizar testes de
confiabilidade.
Prosseguindo com as informações passadas na obra, temos a escola
biométrica, que foi uma abordagem estatística que surgiu no final do século
XIX, liderada por Francis Galton e Karl Pearson, que se concentrou na
aplicação de técnicas estatísticas para o estudo da variação biológica em
populações.

A biométrica é uma abordagem que enfatiza a análise de dados observacionais


em detrimento do desenvolvimento de modelos teóricos ou experimentais. Os
pesquisadores da escola biométrica acreditavam que a variação biológica
poderia ser entendida por meio da coleta e análise de dados observacionais
sobre características físicas e fisiológicas dos indivíduos em uma população.

A escola biométrica desenvolveu várias técnicas estatísticas, incluindo a


análise de correlação, a regressão linear e a análise de variância, que foram
usadas para descrever a relação entre diferentes características biológicas e
para identificar padrões de variação em populações. Essas técnicas foram
aplicadas em diversos campos, como a genética, a antropologia e a ecologia.

Apesar de suas contribuições para a estatística e a biologia, a escola


biométrica foi criticada por sua abordagem empírica e descritiva. Os críticos
argumentaram que a biométrica não fornecia uma compreensão teórica
profunda dos processos biológicos subjacentes à variação observada. Essas
críticas levaram ao desenvolvimento de novas abordagens estatísticas, como a
genética de populações, que se concentram em modelos teóricos para
entender a variação biológica.

Pode se analisar que a biologia foi um campo de suma importância para a


evolução da estatística, com grandes nomes na área como o também
geneticista Ronald Alymer Fisher (1890-1962) Uma das contribuições mais
importantes de Fisher para a genética foi a concepção do conceito de herança
poligênica, que ele usou para explicar a complexidade de características
quantitativas, como altura, peso e inteligência, que não seguem o padrão de
herança simples de características mendelianas. Ele também propôs a ideia de
que muitas características complexas são influenciadas por múltiplos genes,
cada um com pequenos efeitos. O raciocínio descrito anteriormente foi gerado
pelo intelectual com o auxílio importante da matéria de estatística.

Fisher é conhecido mundialmente como um dos criadores da estatística


moderna e a grande mente por trás da Análise e Delineamento de
Experimento.O delineamento experimental refere-se à estrutura geral do
experimento, incluindo o número de tratamentos, a distribuição dos tratamentos
em diferentes grupos e o número de repetições para cada tratamento. O
delineamento experimental adequado é importante porque permite que os
pesquisadores controlem as variáveis que podem afetar os resultados, como
fatores ambientais, genéticos ou históricos. O delineamento experimental
também ajuda a garantir que as diferenças observadas nos resultados possam
ser atribuídas aos tratamentos e não a outros fatores.

Os fundamentos teóricos da estatística referem-se às ideias e conceitos


subjacentes à disciplina que fornecem a base para a compreensão e aplicação
de métodos estatísticos. Existem vários conceitos fundamentais na estatística,
incluindo a teoria da probabilidade, a inferência estatística e a análise de
dados.

A teoria da probabilidade é um ramo da matemática que descreve como


eventos aleatórios ocorrem. A teoria da probabilidade é um dos fundamentos
teóricos mais importantes da estatística, porque muitos métodos estatísticos
dependem do uso de probabilidades. A probabilidade é usada para modelar o
comportamento aleatório dos dados, e é essencial para a realização de testes
de hipóteses e para a construção de intervalos de confiança.

Continuando o corpo do texto, A análise de variância (ANOVA) é uma técnica


estatística que é utilizada para avaliar se existem diferenças significativas entre
as médias de dois ou mais grupos. Ela é frequentemente utilizada em
experimentos científicos, onde os pesquisadores estão interessados em saber
se uma variável de interesse (por exemplo, um tratamento) tem um efeito
significativo sobre uma ou mais variáveis de resposta (por exemplo, a taxa de
crescimento de uma planta), percebendo assim sua grande importância para a
agricultura, mostrando mais uma vez como a estatística é uma área de
conhecimento holística.

Para realizar uma análise de variância, é necessário primeiro coletar os dados


dos grupos que serão comparados. Em seguida, é realizada uma análise
estatística que leva em consideração a variabilidade dentro dos grupos e entre
os grupos. A partir dessa análise, é possível determinar se as diferenças entre
as médias observadas são estatisticamente significativas ou se elas podem ser
explicadas pela variação natural dos dados. Também por meio da análise
existe a possibilidade de se localizar outliers, sendo eles leves ou não, que são
as próprias variações em si, porém fora da curva de aceitação do grupo de
dados estudado.

Uma pequena percepção sobre a obra, principalmente em sua parte


introdutória e de quando o autor apresenta algum novo intelectual de alguma
área importante para o avanço da estatística é que o mesmo sempre opta por
dar uma gama de informações sobre a vida do indivíduo, como uma mini
biografia, então sempre serão listados ano de nascimento e morte e pequenas
características de cada autor, e a gama dessas características citadas aumenta
em relação com a relevância que o mesmo tem para o crescimento da
estatística como ciência, como exemplo temos o Fisher, altamente citado e
reverenciado na obra, citando também prêmios e honrarias obtidos durante a
vida dele pela notoriedade da sua contribuição para a comunidade científica.
Dando continuidade ao raciocínio, é possível notar uma espécie de “teia de
aranha” causada pela análise e junção de tantos autores no campo da
estatística, exemplificando isso na parte de testes de hipóteses estatísticas,
onde o iminente estudioso Jerzy Neyman (1894 – 1981) se encontrou ao longo
da sua carreira acadêmica o já citado e de muito prestígio Karl Pearson, porém
não prosseguiu com o mesmo por muito tempo e foi procurar novos ares,
Neyman era mais interessado em estudos relacionados com a teoria de
probabilidades, medida e integração. Continuando sua carreira, Jerzy brilhou
mesmo com Egon Pearson (1895-1980), onde juntos confeccionaram a base
da teoria dos testes de hipóteses estatísticas.

O teste de hipóteses estatísticas é uma técnica que permite avaliar a validade


de uma afirmação ou hipótese sobre uma população com base em uma
amostra de dados. Em outras palavras, o objetivo do teste de hipóteses é
determinar se os dados suportam ou refutam uma hipótese em particular. O
teste de hipóteses estatísticas é geralmente considerado um método dedutivo.
Isso ocorre porque o objetivo do teste de hipóteses é testar a validade de uma
afirmação ou hipótese específica com base em evidências observáveis, se
observando eventos para chegar em conclusões mais particulares, como
manda o método dedutivo.

O processo começa com uma hipótese nula (geralmente uma afirmação de que
não há diferença ou relação entre duas variáveis) e uma hipótese alternativa
(que afirma que há diferença ou relação entre as variáveis). Em seguida, os
dados são coletados e analisados para determinar se as evidências
observadas são consistentes com a hipótese nula ou se a hipótese alternativa
é mais provável.

Prosseguindo, temos o desenvolvimento dos levantamentos por amostragem,


que são técnicas estatísticas comuns usadas em pesquisas para obter
informações de uma população mais ampla sem ter que estudar todos os
indivíduos da população. Em vez disso, uma amostra representativa é
selecionada da população e usada para inferir as características da população
como um todo.Pode-se inferir nesse caso que se trata de um estudo mais
indutivo, onde parte-se da análise de indivíduos particularmente para uma
análise geral, e cada vez mais pautado em questões reais da sociedade pois
se é estudada com populações finitas, como se sabe nenhum grupo
populacional é infinito, causando assim maior entendimento e respaldo para o
uso estatístico para as ciências econômicas por exemplo, visto que os
levantamentos por amostragem são praticamente o único método de pesquisa
nas ciências econômicas e sociais.

Mais uma vez é observada a demanda que a sociedade sempre fez sobre a
necessidade de estudar a si mesma, onde o estudo de populações finitas é
muito mais complicado e exige fórmulas mais densas, pois trabalhando cada
vez mais com situações reais da população, sem o famoso ceteris paribus
(todo o resto constante) onde se analisam muitas situações em forma
laboratorial, num ambiente controlado, bastante diferente da vida real onde as
variáveis são praticamente incalculáveis, e é exatamente pra isso que a
evolução da estatística foi tão necessária, racionalizar a interpretação e análise
de dados.

Como forma de prosseguimento, o autor começa a dissertar sobre a era atual


da estatística com uma análise breve e categórica entre semelhanças e
diferenças da estatística para a própria matemática aplicada em si, onde o
mesmo considera a evolução da dita cuja como um divisor de águas, e afirma
que apesar de ser de suma necessidade, ser um bom matemático não
necessariamente lhe torna um estatístico de qualidade, pois ele interpreta a
ciência estatística muito abrangente para ser apenas comparada e resumida
com a linguagem matemática, porém o mesmo autor ainda conclui seu
raciocínio afirmando a necessidade de um bom conhecimento matemático para
domar e entender apropriadamente a estatística, em resumo ele separou as
duas áreas mas também apontou a força prática que uma infere na outra,
matemática e estatística assim andam juntas.

Ainda nesse momento de análise é apontada na obra a evolução da tecnologia,


principalmente de máquinas de computador e como esse crescimento andando
lado a lado com a nova era da informação e globalização criou endosso global
no estudo estatístico, com força e freqüência muito maior que antes do período
de 1985, como afirma o estatístico David Roxbee Cox (1924 – ), um dos
maiores da era atual, o mesmo também aponta o período de 1925 a 1960
como os anos dourados da estatística, assim como os mais velhos gostam de
citar Ronaldo, Zidane, Maldini, Maradona e Cruyff nos anos dourados do
futebol, no passado Cox cita estatísticos de grande prestígio como Fisher,
Neyman, Egon Pearson e Wald e suas obras como a estrutura e base
necessária para a evolução e crescimento massivo que a mesma ciência
obtém ao longo dos anos, acompanhando o desenvolvimento tecnológico e
uma demanda cada vez maior da sociedade por categorizar, interpretar dados
e resultados e separar os mais dos menos úteis, ciência essa que teve uma
base muito bem fundada com pensadores citados anteriormente.

Analisando a evolução tecnológica e como cada vez mais raramente se


encontram profissionais que fazem o trabalho estatístico sem o apoio de uma
máquina computadorizada, pode-se perceber que tecnologia, matemática,
programação e a tão citada estatística andam lado a lado, criando um
relacionamento intrínseco um ao outro, praticamente impossível de se
desvencilhar, ainda mais com a criação de ferramentas no computador de
análise estatística, algo que os criadores de alguns anos atrás não poderiam
nem conceber estarem usando ao seu favor, criando dúvidas como “o que
esses pensadores seriam capazes de criar caso tivessem o apoio da tecnologia
de ponta como hoje em dia os outros cientistas têm”, algo que não se
descobrirá a resposta.

Uma grande vantagem que um computador dá para o sagaz especialista que


sabe controlá-lo é a capacidade de explorar e analisar uma grande massa de
dados com velocidade e eficiência muito maior que seria sem o apoio da
máquina, criando assim uma vertente estatística conhecida como Análise
Exploratória de Dados, um processo crítico que visa descobrir informações
importantes sobre um conjunto de dados. É um método para descobrir
padrões, identificar outliers e compreender a distribuição dos dados. A AED é
essencial para entender os dados, antes de aplicar modelos preditivos e
algoritmos de aprendizagem de máquina.

A AED geralmente começa com a coleta de dados brutos e sua organização


em uma estrutura lógica. Em seguida, os dados são examinados visualmente
para obter uma visão geral do conjunto de dados e identificar possíveis
problemas. Esta visualização pode incluir histogramas, gráficos de dispersão,
gráficos de caixa, mapas de calor, entre outros. A visualização é importante
porque pode ajudar a identificar anomalias e insights que podem não ser
óbvios quando os dados estão em sua forma bruta.

A análise exploratória de dados é um processo importante que ajuda a


identificar padrões e tendências que podem não ser óbvios no conjunto de
dados original. Ele também ajuda a limpar e preparar os dados para análises
mais avançadas. É importante ressaltar que a AED não é um processo único,
mas sim contínuo, que pode ser repetido várias vezes durante o processo de
análise de dados. Como pode se analisar, a AED é uma análise bastante
ampla e que envolve grande massa de conteúdo, muitas vezes o trabalho
intelectual humano é impossibilitado de ser feito por via da massiva presença
de dados confusos e espalhados, aí o computador entra para facilitar a vida do
profissional.

Recapitulando, o enfoque principal da obra é mostrar de forma breve, como


discorrido no título, a história e a evolução da estatística como ciência
matemática, analítica e principalmente social, afinal as relações humanas,
ainda mais quando colocadas em rede e entrelaçadas precisam ser estudadas.
Muitos cientistas, matemáticos, médicos, agricultores, biólogos, economistas,
políticos ou apenas entusiastas deram suas referências e contribuições para a
confecção da estatística como conhecemos hoje, com ferramentas como o
Excel e inteligências artificiais como o ChatGpt sendo desenvolvidas e
aperfeiçoadas, se aumenta a demanda (e necessariamente a eficiência) do
estudo estatístico, desde para jogos de azar até a análise anual dos lucros de
uma empresa.

Você também pode gostar