Escolar Documentos
Profissional Documentos
Cultura Documentos
Geradores de Números Aleatórios: Índice
Geradores de Números Aleatórios: Índice
Von Zuben
DCA/FEEC/Unicamp
2 Probabilidade
• A probabilidade é a linguagem empregada na fundamentação matemática da
inferência estatística. Trata-se de uma disciplina exata e desenvolvida a partir
de um encadeamento lógico de deduções a partir de um conjunto de axiomas
claramente definidos.
• Há uma óbvia quebra de continuidade entre os elementos de probabilidade
apresentados em cursos introdutórios e os conceitos mais elaborados
necessários nas aplicações do dia-a-dia.
• Este é o caso quando existem fatores que influenciam o resultado, mas que não
são de conhecimento do experimentador ou que o experimentador não pode
controlar e, também, quando os fatores que supostamente estão sob controle,
na verdade não estão.
• Uma vez que o resultado do experimento não é previsível, ele vai ser um
dentre os muitos resultados possíveis.
Axioma 2: P S = 1.
O axioma 2 determina que, com probabilidade igual a 1, o resultado está contido
no espaço amostral S.
Proposição 2:
P E∪F = P E +P F −P E∩F .
= P E + P Ec ∩ F
P F = P E ∩ F + P Ec ∩ F
E F
I II III
• Mostrando que
P E ∪ F = P E + P F − P II .
• Logo, uma variável aleatória é uma função que aloca um ponto do espaço
amostral a cada resultado de um experimento aleatório. Dito de outro modo,
uma variável aleatória é uma função associada a um experimento, sendo que a
realização do experimento leva esta variável a assumir um valor dependente
do acaso, mas pertencente ao respectivo espaço amostral.
• Cada vez que um experimento é realizado, o resultado obtido indica a
ocorrência ou não de um determinado evento (subconjunto do espaço
amostral).
• Formalização do conceito: Uma variável aleatória ξ é uma função com as
seguintes propriedades:
ξ assume valores no espaço amostral S de um experimento;
Para todo evento E ⊂ S, a probabilidade de que ξ assuma um valor x ∈ E
após a realização do experimento, dada por P〈x ∈ E〉 = P〈E〉, é bem
definida (embora possa ser desconhecida).
• Neste ponto do texto, o mais importante é dividir estes poucos tipos em duas
classes:
1. Distribuições discretas: ocorrem em experimentos que requerem
contagem. Exemplos: pessoas com menos de 30 anos, mortes por câncer,
produtos com defeito.
2. Distribuições contínuas: ocorrem em experimentos que requerem
medidas. Exemplos: tensão elétrica, pressão sanguínea, vazão de rio.
• Para cada uma das duas classes, a respectiva função distribuição de
probabilidade Fξ (⋅) terá sempre associada a si:
fξ(z )
1
6
1 2 3 4 5 6 z
F ξ(z )
1
1
2
1 2 3 4 5 6 z
P x q < ξ ≤ x r = Fξ ( x r ) − Fξ ( x q ) .
x
• Para uma variável aleatória ξ contínua, resulta: P x q < ξ ≤ x r = ∫x r f ξ ( x )dx
q
+∞
• Uma consequência direta é o resultado: ∫−∞ f ξ ( x )dx = 1.
• Exemplo: Uma variável aleatória ξ com distribuição normal, média 0 e
variância 1, tem como funções densidade e distribuição de probabilidade:
Função densidade de probabilidade Função distribuição de probabilidade
1 1
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
F (z)
f (z)
0.5 0.5
ξ
ξ
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
z z
j
os valores possíveis de j);
σ 2 = ∫− ∞ (x − ξ ) f ξ ( x )dx , para o caso contínuo.
+∞ 2
3.5 Momentos
4 Medidas amostrais
N
1
• Média amostral (N amostras): x =
N
∑ xk
k =1
1 N
• Variância amostral: σ 2 = ∑ ( x k − x )2
N − 1 k =1
1 N
• Desvio-padrão amostral: σ = ∑ ( x k − x )2
N − 1 k =1
∑ ( xik − xi )(x jk − x j )
1 N
• Covariância amostral: σ ij =
N − 1 k =1
σ ij
• Coeficiente de correlação amostral: rij =
σi σ j
repetitividade;
portabilidade;
custo computacional baixo por geração;
simplicidade de implementação.
9 Geradores lineares
• São geralmente os modelos fornecidos pelos sistemas computacionais.
• Envolvem a geração de uma sequência I1, I2, I3, ... de inteiros entre 0 e m−1
pela relação de recorrência
I j +1 = ( aI j + c ) mod m, j=1,2,...
• Se o período for p = m, todo inteiro entre 0 e m−1 vai ocorrer em alguma das
próximas m iterações, fazendo com que a escolha do valor inicial I0 da
recorrência (semente da geração pseudo-aleatória) não influa de forma
significativa no resultado estatístico associado a sequências longas.
• Vantagem: é um método de geração muito rápido, simples de implementar e
repetitivo para uma mesma máquina.
• Desvantagens: não é portável, está preso a uma correlação sequencial e os bits
menos significativos são “menos aleatórios” que os bits mais significativos.
• Exemplo 1: Para gerar números inteiros pseudo-aleatórios entre 0 e 9,
recomenda-se o uso dos bits mais significativos (suponha RAND_MAX =
32767):
use I(j) = (int) (10.0*rand()/(RAND_MAX+1.0));
no lugar de I(j) = rand()%10;
10 Geradores portáveis
• Gerador implementável em qualquer linguagem de programação e em qualquer
máquina, produzindo sempre o mesmo comportamento estatístico e
apresentando, para uma mesma semente, a mesma sequência de números.
• Há evidências, teóricas e empíricas, de que tomando c = 0 na recursão
I j +1 = ( aI j + c ) mod m, j=1,2,...
m = a ⋅ fix + ( m mod a ) = aq + r
m
a
onde fix fornece a parte inteira da razão . Para um inteiro z tal que
m m
a a
0 < z < m−1, pode ser mostrado que, tomando r < q, tanto a ⋅ ( z mod q) quanto
z
r ⋅ fix assumem valores inteiros no conjunto {0,..., m − 1} , e que
q
z
a( z mod q) − r ⋅ fix q se ≥ 0
az mod m =
a( z mod q) − r ⋅ fix z + m se < 0
q
m a q r
231−1 16807 127773 2836
231−1 48271 44488 3399
231−1 69621 30845 23902
11 Outros geradores
• Lineares multivariáveis: I j +1 = ( a0 I j + a1 I j −1 +L+ ak I j − k ) mod m
I j +1 = ( a0 I j + a1 I j −1 +L+ ak I j − k + c j ) mod m
a I + a1 I j −1 +L+ ak I j − k + c j
c j +1 = fix 0 j
m
15 Referências
BÄCK, T., FOGEL, D.B. & MICHALEWICZ, Z. (eds.) “Evolutionary Computation 2: Advanced Algorithms
and Operators, Chapter 24: Efficient implementation of algorithms”, Institute of Physics Publishing,
2000.
BOX, G.E.P. & MULLER, M.E. “A note on the generation of random normal deviates”, The Annals of
Mathematical Statistics, vol. 29, no. 2, pp. 610–611, 1958.
CANTÚ-PAZ, E. “On Random Numbers and the Performance of Genetic Algorithms”, Proceedings of the
Genetic and Evolutionary Computation Conference (GECCO’02), vol. 1, pp. 311-318, Morgan
Kaufmann Publishers, 2002.
DAIDA, J.M., AMPY, D.S., RATANASAVETAVADHANA, M., LI, H. & CHAUDHRI, O.A. “Challenges with
verification, repeatability, and meaningful comparison in genetic programming: Gibson’s magic” in
Banzhaf, W., Daida, J., Eiben, A.E., Garzon, M.H., Honavar, V., Jakiela, M. & Smith, R.E. (eds.)
Proceedings of the Genetic and Evolutionary Computation Conference (GECCO’99), vol. 2, pp.
1851-1858, Morgan Kaufmann Publishers, 1999.
DOS REIS, S.F. “Introdução ao Estudo de Probabilidade”, Notas de Aula do Curso de Genética
Populacional Teórica, IB/Unicamp, 2001.
EVANS, D.H. “Probability and Its Applications for Engineers”, ASQC Quality Press, 1992.
FORSYTHE, G.E., MALCOLM, M.A. & MOLER, C.B. “Computer Methods for Mathematical
Computations”, Prentice-Hall, 1977.
KNUTH, D.E. “The Art of Computer Programming: Seminumerical Algorithms”, Addison-Wesley, Vol.
2, 2nd edition, 1981.
KREYSZIG, E. “Advanced Engineering Mathematics”, 7th edition, John Wiley & Sons, 1993.
L’ECUYER, P. “Testing random number generators”, Proceedings of the 1992 Winter Simulation
Conference, IEEE Press, pp. 305-313, 1992.
L’ECUYER, P. “Uniform random number generation”, Annals of Operations Research, vol. 53, pp. 77-
120, 1994.
L’ECUYER, P. “Combined multiple recursive generators”, Operations Research, vol. 44, no. 5, pp. 816-
822, 1996.
MARDIA, K.V., KENT, J.T. & BIBBY, J.M. “Multivariate Analysis”, Academic Press, 1979.
MARSAGLIA, G. “Random number generators”, Journal of Modern Applied Statistical Methods, vol. 2,
no. 1, pp. 2-13, 2003.
MEYSENBURG, M.M. “The effect of pseudo-random number generator quality on the performance of a
simple genetic algorithm”, Master’s Thesis, University of Idaho, 1997.
MEYSENBURG, M.M. & FOSTER, J.A. “Random generator quality and GP performance”, in Banzhaf, W.,
Daida, J., Eiben, A.E., Garzon, M.H., Honavar, V., Jakiela, M. & Smith, R.E. (eds.) Proceedings of
the Genetic and Evolutionary Computation Conference (GECCO’99), vol. 2, pp. 1121-1126,
Morgan Kaufmann Publishers, 1999a.
MEYSENBURG, M.M. & FOSTER, J.A. “Randomness and GA performance revisited”, in Banzhaf, W.,
Daida, J., Eiben, A.E., Garzon, M.H., Honavar, V., Jakiela, M. & Smith, R.E. (eds.) Proceedings of
the Genetic and Evolutionary Computation Conference (GECCO’99), vol. 1, pp. 425-432, Morgan
Kaufmann Publishers, 1999b.
MEYSENBURG, M.M., HOELTING, D., MCELVAIN, D. & FOSTER, J.A. “How Random Generator Quality
Impacts Genetic Algorithm Performance”, Proceedings of the Genetic and Evolutionary
Computation Conference (GECCO’02), vol. 1, pp. 480-483, Morgan Kaufmann Publishers, 2002.
MONTGOMERY, D.C. & RUNGER, G.C. “Applied Statistics and Probability for Engineers”, John Wiley &
Sons, 1994.
MOOD, A.M. & GRAYBILL, F.A. “Introduction to the Theory of Statistics”, McGraw-Hill Book
Company, 1963.
PAPOULIS, A. “Probability, Random Variables, and Stochastic Processes”, Third Edition, McGraw-Hill,
1991.
PRESS, W.H., TEUKOLSKY, S.A., VETTERLING, W.T. & FLANNERY, B.P. “Numerical Recipes in C - The
Art of Scientific Computing”, Cambridge University Press, 2nd edition, 1992.
STEWART, I. “Does God Play Dice? The New Mathematics of Chaos”, London: Basil Blackwell, 1989.
WALPOLE, R.E. & MYERS, R.H. “Probability and Statistics for Engineers and Scientists”, Fifth Edition,
Macmillan Publishing Company, 1993.