Você está na página 1de 5

O ENSINO SOBRE A CONCEPÇÃO FREQUENTISTA DE

PROBABILIDADE ESTRUTURADO NA SIMULAÇÃO


COMPUTACIONAL
1
João Vitor Teodoro; 2José Marcos Lopes; 3Gerson Barreto Mourão

São frequentes as situações que se estendem da noção de probabilidade a um


modo de mensurar a incerteza, mostrando a necessidade de se desenvolver experiências
na escola em que os alunos desenvolvam as noções intuitivas de acaso a partir de
situações vivenciadas, pois somente assim, adquirirão um nível mais elaborado do
conhecimento probabilístico evitando entendimento e interpretações equivocadas
futuramente (Carvalho e Fernandes, 2007).
Como lembra Fischbein (1975), as crianças apresentam noções concretas sobre
conceitos probabilísticos como acaso, eventos independentes e mutuamente exclusivos
provindas, muitas vezes, dos jogos e brincadeiras ajudando-as no desenvolvimento e
compreensão na área. Além disso, através do progresso desenvolvimental e da instrução
formal, desenvolvem intuições iniciais de frequência relativa e probabilidade.
Através de experiências realizadas, como a extração com reposição de bolas de
sacos e de lançamento de moedas e dados um grande número de vezes foi observado
que o aprendiz interpreta comparativamente o experimento com a noção clássica de
probabilidade, favorecendo o entendimento. Porém, tais experiências tornam-se
desgastantes conforme cresce o número de repetições.
O ensino, como o de probabilidade, vem se apoiando nos últimos anos em
alguns recursos computacionais que facilitam o entendimento e melhoram a qualidade
da aprendizagem, além de proporcionarem maior interatividade ao aprendiz, que antes
não podia visualizar eventos com tanta facilidade e compreensão.
Neste contexto, a simulação computacional vem solucionando problemas muito
complexos e considerados impossíveis de se resolverem até então, pois além de ser um
meio de confrontar teorias com experimentos, também é importante como ferramenta de
aquisição de conhecimento.
O software aqui apresentado foi desenvolvido em ambiente Delphi na linguagem
Pascal e, através de um programa executável de fácil manuseio, simula lançamentos
simultâneos de dois dados com faces equiprováveis.

1
Aluno do programa de mestrado em Estatística e Experimentação Agronômica da ESALQ – USP.
2
Professor do Departamento de Matemática da FEIS – UNESP.
3
Professor do Departamento de Zootecnia da ESALQ – USP.
É possível variar o número de lançamentos entre um e um milhão, dependendo
da opção do usuário e, cujo tempo de execução varia de acordo com o hardware
utilizado. Após optar por uma quantidade de lançamentos, o software os simula e
apresenta quantas vezes cada resultado aparece, ou seja, as frequências relativas dos
eventos (face do dado A, face do dado B).
Adicionalmente, é possível se analisar o que ocorre quando se soma a face
obtida no dado A com a face obtida no dado B nos respectivos lançamentos. Assim,
mostra-se também a frequência relativa e a frequência absoluta para cada soma possível:
2, 3, 4, 5, 6, 7, 8, 9, 10, 11 e 12. Outros programas como Excel e R podem oferecer os
mesmos resultados, porém o algoritmo utilizado oferece melhor execução, aparência e
facilidades para o uso didático, com grande flexibilidade quanto ao número de
lançamentos de interesse.
A rotina computacional funciona baseada na geração pseudo-aleatória de um par
de números entre 1, 2, 3, 4, 5 e 6 associados às faces dos dados. Este sorteio segue uma
distribuição uniforme discreta, ou seja, cada valor tem a mesma probabilidade de ser
sorteado. Posteriormente, através de repetições, são realizados quantos lançamentos
deseja-se, com número de lançamentos limitado em no máximo um milhão. Ressalta-se
que com este valor, se obtém resultados desejáveis à aplicação, sem tornar o
processamento excessivo.
A soma da face de dois dados foi tratada em Teodoro e Lopes (2009) no qual as
probabilidades dos eventos “somas de faces” foram calculadas e exploradas:

18,00% 16,66%
16,00%
13,89% 13,89%
14,00%
11,11% 11,11%
Probabilidade

12,00%
10,00% 8,33% 8,33%
8,00%
5,56% 5,56%
6,00%
4,00% 2,78% 2,78%
2,00%
0,00%
2 3 4 5 6 7 8 9 10 11 12
Soma

Fig. 1 – Somas possíveis das faces de dois dados e suas


respectivas probabilidades de ocorrer.

Como o principal objetivo do software desenvolvido é mostrar que a frequência


relativa pode ser utilizada para “estimar” a probabilidade, tendo neste caso a concepção
frequentista de probabilidade. É interessante observar que quanto maior o número de
lançamentos, as frequências relativas tendem a variar cada vez menos e a se
aproximarem das probabilidades teóricas, mostradas na Figura 1.
Assim, ao se lançar os dados centenas, milhares e até um milhão de vezes
abrindo mão do trabalho manual e observar o que ocorre quando aumentamos
progressivamente o número de lançamentos:

Fig. 2 – 10 lançamentos. Fig. 3 – 100 lançamentos.

Fig. 4 – 1.000 lançamentos. Fig. 5 – 10.000 lançamentos.

Fig. 6 – 100.000 lançamentos. Fig. 7 – 1.000.000 de lançamentos.

Assim, pode-se definir, após esta atividade, a concepção frequentista de


probabilidade:
Suponha-se que repetimos n vezes o experimento ε , e sejam A e B dois eventos
associados a ε . Admitamos que sejam, respectivamente, nA e nB o número de vezes que
o evento A e o evento B ocorram nas n repetições.
Definição: fA = nA/n é denominada frequência relativa do evento A nas n repetições de
ε . A frequência relativa fA apresenta as seguintes propriedades, de fácil verificação:
(1) 0 ≤ fA ≤ 1.
(2) fA = 1 se, e somente se, A ocorrer em todas as n repetições.
(3) fA = 0 se, e somente se, A nunca ocorrer nas n repetições.
(4) Se A e B forem eventos mutuamente excludentes, e se fAUB for a frequência
relativa associada ao evento A U B, então, fAUB = fA + fB.
(5) fA, com base em n repetições do experimento e considerada como uma
função de n, "converge" em certo sentido probabilístico para P(A), quando
n→ ∞.

No caso especificado, é possível, antes mesmo de estimar através das


frequências, determinar as probabilidades dos eventos, desse modo, pode-se verificar que
realmente há uma tendência natural das frequências relativas a se aproximarem das
probabilidades, pois podemos comparar os resultados experimentais com os teóricos, ou
seja, associando a realidade com o modelo matemático.
É importante lembrar que nem sempre dispõe-se dos resultados teóricos e, assim,
somente podemos estimar as probabilidades através das frequências obtidas em
experimentos ou simulações com o auxílio da estatística.
Logo o estudo com experimentos teóricos pode estender a noção de probabilidade
às situações não somente de "casos igualmente prováveis" segundo o enunciado de
Laplace em seu segundo princípio, na obra "Ensaio Filosófico de Probabilidades", e não
fazer somente referência aos eventos lúdicos, mas também modelar e entender a
condição aleatória nas situações complexas tais como as questões de confiabilidade,
difusão de epidemias, na pesquisa petrolífera ou no controle estocástico.
É interessante valorizar, principalmente, a espontaneidade e intuição do aprendiz,
enfocando os conceitos pré-desenvolvidos, para que haja uma autoconstrução do
conhecimento e, assim, desmistificando e valorizando a importância dos conceitos de
probabilidade que, em geral, é estudada somente em sua forma clássica. Como objetivo
didático, trata-se de ligar de forma profunda o ensino às condições de aprendizagem nas
quais o aluno de hoje está inserido (COUTINHO, 1994).
Em suas pesquisas, Piaget e Inhelder, apesar de considerarem apenas os casos
que determinam probabilidades em situações em que se assume a equiprobabilidade, o
que ocorre, também, em grande parte das escolas, discutem que o desenvolvimento
sobre a compreensão intuitiva probabilística se dá por consequência da relação entre
fatos e sequências de causa-efeito que surgem das próprias ações do sujeito, fazendo
com que, através do caráter provável e esperado dos fatos cotidianos, obtenha-se a
noção de acaso e estimações.
Especificamente quanto aos conceitos de probabilidade, Léon (1998, p.130)
argumenta que
o professor necessita abstrair, compreender e internalizar a função que a aleatoriedade e a
incerteza cumprem no movimento natural do universo como um todo e na vida de cada
indivíduo em particular. A maioria das pessoas têm uma visão excessivamente determinista
do mundo e, muitas vezes, esperamos que as coisas possam se resolver com uma simples,
ou às vezes não tão simples, fórmula (LÉON, 1998 citado por CARVALHO; OLIVEIRA,
2002).
Outros temas da estatística básica também podem ser abordados utilizando-se o
software e pequenas simulações manuais, como exemplo o estudo e análises das medidas
de posição e dispersão, a construção de gráficos de barras que podem ser avaliados e
interpretados de forma mais rápida e objetiva, e também apresentar uma noção intuitiva
de distribuição.

Palavras-chave: Ensino, Probabilidade, Estatística, Computação matemática.

Referências
CARVALHO, C.; FERNANDES, A. J. Revisitando o conceito de probabilidade com
um olhar da Psicologia. Revista Quadrante, v.14, n.2, p.71-88, 2007.

CARVALHO, D. L. OLIVEIRA P. S. Quatro concepções de probabilidade


manifestadas por alunos ingressantes na licenciatura em matemática: clássica,
frequentista, subjetiva e formal. In: 25ª REUNIÃO ANUAL DA ANPED, CD da
Anped, Caxambu, 2002.

COUTINHO, C. de Q. e S. C. Introdução ao conceito de probabilidade por uma


visão frequentista. 1994. Dissertação de Mestrado, PUC-SP.

FISCHIBEIN, E. The intuitive sources of probability thinking in children.


Dordrecht: Reidel, 1975.

MEYER, P. L. Probabilidade: aplicações à estatística. 2. ed. Rio de Janeiro: Livros


Técnicos e Científicos, 2000.

TEODORO, J. V.; LOPES, J. M. O ensino de conceitos básicos de probabilidade


através de um jogo de dados e da metodologia de resolução de problemas. In: 32°
CONGRESSO NACIONAL DE MATEMÁTICA APLICADA E COMPUTACIONAL,
Anais do 32° Congresso Nacional de Matemática Aplicada e Computacional,
Cuiabá, 2009.

Você também pode gostar