Escolar Documentos
Profissional Documentos
Cultura Documentos
= =
=
|
|
.
|
\
|
k
i
i
k
i
i
A P A P
1 1
) (
4. Si A
1
, A
2
, A
3
, ........ es una secuencia numerable de eventos mutuamente excluyentes
definidos en , entonces:
=
=
|
|
.
|
\
|
1 1
) (
i
i
i
i
A P A P
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
35/90
Ntese que las propiedades de la definicin dada no dice al experimentador cmo asignar las
probabilidades; sin embargo, restringen la manera en que la asignacin puede llevarse a cabo. En la
prctica la probabilidad se asigna en base a (1) estimaciones obtenidas de experiencias u
observaciones previas, (2) una consideracin analtica de las condiciones experimentales, o (3) una
suposicin.
Definicin
El valor
A
=
m
A
/m se denomina frecuencia relativa del evento A. Tiene las siguientes propiedades:
a) 0
A
1
b)
A
= 0 si y solo si A nunca ocurre, y
A
= 1 si y solo si A ocurre en cada repeticin
c) Si A y B son eventos mutuamente excluyentes, entonces F
AUB
=
A
+
B
El hecho de que
A
tiende a estabilizarse a medida que m se vuelve ms grande, es una
consecuencia de la regularidad que a su vez es consecuencia del requisito de que el experimento sea
reproducible. Esto es, cuando el experimento se repite, la frecuencia relativa del evento a variar
menos y menos (de repeticin a repeticin) conforme el nmero de repeticiones aumente. El concepto
de frecuencia relativa y la tendencia a la estabilidad conducen a un mtodo para asignar
probabilidades. Si un experimento tiene el espacio muestral y se define un evento A, y si la
frecuencia relativa
A
se aproxima a algn nmero P
A
conforme aumenta el nmero de repeticiones,
entonces se atribuye al nmero P
A
a A como su probabilidad, esto es: cuando m , entonces
A
A
P
m
m
A P = = ) (
Si el espacio muestral es finito y tiene resultados igualmente probables de modo que p
1
= p
2
= p
3
= p
3
=
p
n
= 1/n, entonces
m
A n
A P
) (
) ( =
donde hay n resultados y n(A) est contenido en A.
Esto es, la aplicacin de la Regla de Laplace:
P(A) = Casos favorables / casos posibles
La probabilidad entonces, mide la mayor o menor posibilidad de que se d un determinado resultado
(suceso) cuando se realiza un experimento aleatorio, tomando entre 0 y 1 (o expresados en tanto por
ciento, entre 0% y 100%):
El valor cero corresponde al suceso imposible: lanzamos un dado al aire y la probabilidad de que
salga el nmero 7 es cero (al menos, si es un dado certificado por la OMD, "Organizacin Mundial de
Dados").
El valor uno corresponde al suceso seguro: lanzamos un dado al aire y la probabilidad de que
salga cualquier nmero del 1 al 6 es igual a uno (100%).
El resto de sucesos tendr probabilidades entre cero y uno: que ser tanto mayor cuanto ms
probable sea que dicho suceso tenga lugar.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
36/90
Veamos algunos ejemplos:
Probabilidad de que al lanzar un dado salga el nmero 2: el caso favorable es tan slo uno (que
salga el dos), mientras que los casos posibles son seis (puede salir cualquier nmero del uno al seis).
Por lo tanto:
P(A) = 1 / 6 = 0,166 (o lo que es lo mismo, 16,6%)
Probabilidad de que al lanzar un dado salga un nmero par: en este caso los casos favorables
son tres (que salga el dos, el cuatro o el seis), mientras que los casos posibles siguen siendo seis.
Por lo tanto:
P(A) = 3 / 6 = 0,50 (o lo que es lo mismo, 50%)
Probabilidad de que al lanzar un dado salga un nmero menor que 5: en este caso tenemos
cuatro casos favorables (que salga el uno, el dos, el tres o el cuatro), frente a los seis casos posibles.
Por lo tanto:
P(A) = 4 / 6 = 0,666 (o lo que es lo mismo, 66,6%)
Probabilidad de que nos toque el "Gordo" de Navidad: tan slo un caso favorable, el nmero que
jugamos (qu triste...), frente a 100.000 casos posibles. Por lo tanto:
P(A) = 1 / 100.000 = 0,00001 (o lo que es lo mismo, 0,001%)
Merece la pena ...... Por cierto, tiene la misma probabilidad el nmero 45.264, que el nmero 00001,
pero cul de los dos compraras?
Para poder aplicar la Regla de Laplace el experimento aleatorio tiene que cumplir dos requisitos:
nmero de resultados posibles (sucesos) tiene que ser finito. Si hubiera infinitos
resultados, al aplicar la regla "casos favorables / casos posibles" el cociente siempre sera
cero.
Todos los sucesos tienen que tener la misma oportunidad de salida. Si al lanzar un
dado, algunas caras tuvieran mayor probabilidad de salir que otras, no podramos aplicar
esta regla.
A la regla de Laplace tambin se le denomina "probabilidad a priori", ya que para aplicarla hay que
conocer antes de realizar el experimento cuales son los posibles resultados y saber que todos tienen
las mismas probabilidades.
Si el experimento aleatorio no cumple los dos requisitos indicados, podemos acudir a otro modelo de
clculo de probabilidades que se basa en la experiencia (modelo frecuentista):
Cuando se realiza un experimento aleatorio un nmero muy elevado de veces, las probabilidades de
los diversos posibles sucesos empiezan a converger hacia valores determinados, que son sus
respectivas probabilidades.
Ejemplo: si lanzo una vez una moneda al aire y sale "cara", quiere decir que el suceso "cara" ha
aparecido el 100% de las veces y el suceso "cruz" el 0%.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
37/90
Si lanzo diez veces la moneda al aire, es posible que el suceso "cara" salga 7 veces y el suceso
"cruz" las 3 restantes. En este caso, la probabilidad del suceso "cara" ya no sera del 100%, sino que
se habra reducido al 70%.
Si repito este experimento un nmero elevado de veces, lo normal es que las probabilidades de los
sucesos "cara" y "cruz" se vayan aproximando al 50% cada una. Este 50% ser la probabilidad de
estos sucesos segn el modelo basado en frecuencias.
En este modelo ya no ser necesario que el nmero de soluciones sea finito, ni que todos los sucesos
tengan la misma probabilidad.
Ejemplo: si la moneda que utilizamos en el ejemplo anterior fuera defectuosa (o estuviera trucada),
es posible que al repetir dicho experimento un nmero elevado de veces, la "cara" saliera con una
frecuencia, por ejemplo, del 65% y la "cruz" del 35%. Estos valores seran las probabilidades de
estos dos sucesos segn el modelo de frecuencias.
A esta definicin de la probabilidad se le denomina probabilidad a posteriori, ya que tan slo
repitiendo un experimento un nmero elevado de veces podremos saber cual es la probabilidad de
cada suceso.
Probabilidad: Relacin entre sucesos
Entre los sucesos compuestos se pueden establecer distintas relaciones:
Un suceso puede estar contenido en otro: las posibles soluciones del primer suceso tambin lo
son del segundo, pero este segundo suceso tiene adems otras soluciones suyas propias.
Ejemplo: lanzamos un dado y analizamos dos sucesos: a) que salga el nmero 6, y b) que salga un
nmero par. Vemos que el suceso a) est contenido en el suceso b).
Siempre que se da el suceso a) se da el suceso b), pero no al contrario. Por ejemplo, si el resultado
fuera el 2, se cumplira el suceso b), pero no el el a).
Dos sucesos pueden ser iguales: esto ocurre cuando siempre que se cumple uno de ellos se
cumple obligatoriamente el otro y viceversa.
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que
salga mltiplo de 2. Vemos que las soluciones coinciden en ambos casos.
Unin de dos o ms sucesos: la unin ser otro suceso formado por todos los elementos de los
sucesos que se unen.
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par y b) que el
resultado sea mayor que 3. El suceso unin estara formado por los siguientes resultados: el 2, el 4,
el 5 y el 6
Interseccin de sucesos: es aquel suceso compuesto por los elementos comunes de dos o ms
sucesos que se intersectan.
Ejemplo: lanzamos un dado al aire, y analizamos dos sucesos: a) que salga nmero par, y b) que
sea mayor que 4. La interseccin de estos dos sucesos tiene un slo elemento, el nmero 6 (es el
nico resultado comn a ambos sucesos: es mayor que 4 y es nmero par).
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
38/90
Sucesos incompatibles: son aquellos que no se pueden dar al mismo tiempo ya que no tienen
elementos comunes (su interseccin es el conjunto vaco).
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero menor que 3,
y b) que salga el nmero 6. Es evidente que ambos no se pueden dar al mismo tiempo.
Sucesos complementarios: son aquellos que si no se da uno, obligatoriamente se tiene que dar el
otro.
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero par, y b) que
salga un nmero impar. Vemos que si no se da el primero se tiene que dar el segundo (y viceversa).
Probabilidad de sucesos
Al definir los sucesos hablamos de las diferentes relaciones que pueden guardar dos sucesos entre
s, as como de las posibles relaciones que se pueden establecer entre los mismos. Vamos a ver
ahora cmo se refleja esto en el clculo de probabilidades.
Un suceso puede estar contenido en otro: entonces, la probabilidad del primer suceso ser menor
que la del suceso que lo contiene.
Ejemplo: lanzamos un dado y analizamos dos sucesos: a) que salga el nmero 6, y b) que salga un
nmero par. Dijimos que el suceso a) est contenido en el suceso b).
P(A) = 1/6 = 0,166
P(B) = 3 / 6 = 0,50
Por lo tanto, podemos ver que la probabilidad del suceso contenido, suceso a), es menor que la
probabilidad del suceso que lo contiene, suceso b).
Dos sucesos pueden ser iguales: en este caso, las probabilidades de ambos sucesos son las
mismas.
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que
salga mltiplo de 2. Las soluciones coinciden en ambos casos.
P(A) = 3 / 6 = 0,50
P(B) = 3 / 6 = 0,50
Interseccin de sucesos: es aquel suceso compuesto por los elementos comunes de los dos o ms
sucesos que se intersectan. La probabilidad ser igual a la probabilidad de los elementos comunes.
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que sea
mayor que 3. La interseccin de estos dos sucesos tiene dos elementos: el 4 y el 6.
Su probabilidad ser por tanto:
P(A B) = 2 / 6 = 0,33
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
39/90
d) Unin de dos o ms sucesos: la probabilidad de la unin de dos sucesos es igual a la suma de
las probabilidades individuales de los dos sucesos que se unen, menos la probabilidad del suceso
interseccin
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que el
resultado sea mayor que 3. El suceso unin estara formado por los siguientes resultados: el 2, el 4, el
5 y el 6.
P(A) = 3 / 6 = 0,50
P(B) = 3 / 6 = 0,50
P (A B) = 2 / 6 = 0,33
Por lo tanto, P (A u B) = (0,50 + 0,50) - 0,33 = 0,666
e) Sucesos incompatibles: la probabilidad de la unin de dos sucesos incompatibles ser igual a la
suma de las probabilidades de cada uno de los sucesos (ya que su interseccin es el conjunto vaco y
por lo tanto no hay que restarle nada).
Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero menor que 3,
y b) que salga el nmero 6.
La probabilidad del suceso unin de estos dos sucesos ser igual a:
P(A) = 2 / 6 = 0,333
P(B) = 1 / 6 = 0,166
Por lo tanto
P(A U B) = 0,33 + 0,166 = 0,50
f) Sucesos complementarios: la probabilidad de un suceso complementario a un suceso (A) es igual
a 1 - P(A)
Ejemplo: lanzamos un dado al aire. el suceso (A) es que salga un nmero par, luego su
complementario, suceso (B), es que salga un nmero impar.
La probabilidad del suceso (A) es igual a :
P(A) = 3 / 6 = 0,50
Luego, la probabilidad del suceso (B) es igual a:
P(B) = 1 - P(A) = 1 - 0,50 = 0,50
Se puede comprobar aplicando la regla de "casos favorables / casos posibles":
P(B) = 3 / 6 = 0,50
Unin de sucesos complementarios: la probabilidad de la unin de dos sucesos complementarios
es igual a 1.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
40/90
Ejemplo: seguimos con el ejemplo anterior: a) que salga un nmero par, y b) que salga un nmero
impar. La probabilidad del suceso unin de estos dos sucesos ser igual a:
P(A) = 3 / 6 = 0,50
P(B) = 3 / 6 = 0,50
Por lo tanto,
P(A U B) = 0,50 + 0,50 = 1
Para aplicar la Regla de Laplace, el clculo de los sucesos favorables y de los sucesos posibles a
veces no plantea ningn problema, ya que son un nmero reducido y se pueden calcular con
facilidad:
Por ejemplo: Probabilidad de que al lanzar un dado salga el nmero 2. Tan slo hay un caso
favorable, mientras que los casos posibles son seis.
Probabilidad de acertar al primer intento el horscopo de una persona. Hay un caso favorable y 12
casos posibles.
Sin embargo, a veces calcular el nmero de casos favorables y casos posibles es complejo y hay que
aplicar reglas matemticas:
Por ejemplo: 5 matrimonios se sientan aleatoriamente a cenar y queremos calcular la probabilidad
de que al menos los miembros de un matrimonio se sienten junto. En este caso, determinar el
nmero de casos favorables y de casos posibles es complejo.
Las reglas matemticas que nos pueden ayudar son el clculo de permutaciones, variaciones
y combinaciones
a) Permutaciones:
Calcula las posibles agrupaciones que se pueden establecer con todos los elementos de un grupo,
por lo tanto, lo que diferencia a cada subgrupo del resto es el orden de los elementos. Para calcular
el nmero de permutaciones se aplica la siguiente frmula:
La expresin "Pm" representa las permutaciones de "m" elementos, tomando todos los elementos.
Los subgrupos se diferenciaran nicamente por el orden de los elementos.
Ejemplo: P10 son las permutaciones de 10 elementos:
Es decir, tendramos 3.628.800 formas diferentes de agrupar 10 elementos.
Permutaciones con repeticin:
Para calcular el nmero de permutaciones con repeticin se aplica la siguiente frmula:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
41/90
Son permutaciones de "m" elementos, en los que uno de ellos se repite " x1 " veces, otro " x2 " veces
y as ... hasta uno que se repite " k " veces.
b) Variaciones:
Calcula el nmero de subgrupos de 1, 2, 3, etc. elementos que se pueden establecer con los "n"
elementos de una muestra. Cada subgrupo se diferencia del resto en los elementos que lo componen
o en el orden de dichos elementos (es lo que le diferencia de las combinaciones).
Por ejemplo, calcular las posibles variaciones de 2 elementos que se pueden establecer con los
nmero 1, 2 y 3.
Ahora tendramos 6 posibles parejas: (1,2), (1,3), (2,1), (2,3), (3,1) y (3,3). En este caso los
subgrupos (1,2) y (2,1) se consideran distintos.
Para calcular el nmero de variaciones se aplica la siguiente frmula:
La expresin "Vm,n" representa las variaciones de "m" elementos, formando subgrupos de "n"
elementos. En este caso, como vimos en la leccin anterior, un subgrupo se diferenciar del resto,
bien por los elementos que lo forman, o bien por el orden de dichos elementos.
Ejemplo: V10,4 son las variaciones de 10 elementos agrupndolos en subgrupos de 4 elementos:
Es decir, podramos formar 5.040 subgrupos diferentes de 4 elementos, a partir de los 10 elementos.
Variaciones con repeticin:
Para calcular el nmero de variaciones con repeticin se aplica la siguiente frmula:
Ejemplo: V'10,4 son las variaciones de 10 elementos con repeticin, agrupndolos en subgrupos de
4 elementos:
Es decir, podramos formar 10.000 subgrupos diferentes de 4 elementos.
c) Combinaciones:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
42/90
Determina el nmero de subgrupos de 1, 2, 3, etc. elementos que se pueden formar con los "n"
elementos de una nuestra. Cada subgrupo se diferencia del resto en los elementos que lo componen,
sin que influya el orden.
Por ejemplo, calcular las posibles combinaciones de 2 elementos que se pueden formar con los
nmeros 1, 2 y 3.
Se pueden establecer 3 parejas diferentes: (1,2), (1,3) y (2,3). En el clculo de combinaciones las
parejas (1,2) y (2,1) se consideran idnticas, por lo que slo se cuentan una vez.
Para calcular el nmero de combinaciones se aplica la siguiente frmula:
La expresin "Cm,n" representa las combinaciones de "m" elementos, formando subgrupos de "n"
elementos.
Ejemplo: C10,4 son las combinaciones de 10 elementos agrupndolos en subgrupos de 4
elementos:
Es decir, podramos formar 210 subgrupos diferentes de 4 elementos, a partir de los 10 elementos.
Combinaciones con repeticin:
Para calcular el nmero de combinaciones con repeticin se aplica la siguiente frmula:
Ejemplo: C'10,4 son las combinaciones de 10 elementos con repeticin, agrupndolos en subgrupos
de 4, en los que 2, 3 o los 4 elementos podran estar repetidos:
Es decir, podramos formar 715 subgrupos diferentes de 4 elementos
Principio de Adicin
Si un experimento aleatorio ocurre de n
1
formas y un segundo experimento ocurre de n
2
formas, entonces el experimento que consiste en realizar el primer o el segundo experimento
ocurre de n
1
+ n
2
formas.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
43/90
Principio de Multiplicacin
Si un experimento aleatorio ocurre de n
1
formas y si para cada una de estas, un experimento
adicional ocurre de n
2
, entonces los dos experimentos juntos ocurren de n
2
n
1
formas.
Ejercicios
1.- Calcular la probabilidad de acertar los 14 signos de la quiniela:
Solucin:
Se aplica la Regla de Laplace (casos favorables / casos posibles). El caso favorable es tan slo uno
(acertar los 14 signos). Los casos posibles se calculan como variaciones con repeticin de 3
elementos (1, X y 2), tomados de 14 en 14 (los signos que hay que rellenar).
Son variaciones y no combinaciones ya que el orden influye: no es lo mismo (1,1,X) que (1, X, 1). Y
son con repeticin, ya que cualquiera de los signos (1, X y 2) se puede repetir hasta 14 veces.
Por lo tanto, los casos posibles son:
Y la probabilidad de acertar los 14 resultados es:
No demasiado elevada....pero el que la sigue la consigue.
2.- Y la probabilidad de acertar 12 signos de la quiniela:
Solucin:
Aplicamos nuevamente la Regla de Laplace. En este caso los casos favorables se calculan como
combinaciones de 14 elementos tomados de 2 en 2, de esta manera obtenemos todas las posibles
alternativas de fallar 2 resultados de 14 (lo que equivale a acertar 12 resultados). Utilizamos
combinaciones y no variaciones ya que el orden no importa (da lo mismo fallar el 3 y el 6, que el 6 y
el 3)
Los casos posibles siguen siendo los mismos:
Por lo que la probabilidad de acertar 12 resultados es:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
44/90
Por lo tanto, tenemos ms probabilidades de acertar 12 resultados que 14 (ser por eso por lo que
pagan menos?).
3.- Calcular la probabilidad de, en una carrera de 12 caballos, acertar los 3 que quedan primeros (sin
importar cual de ellos queda primero, cual segundo y cual tercero).
Solucin:
Se aplica la Regla de Laplace. El caso favorable es tan slo uno: los 3 caballos que entran en
primer lugar. Los casos posibles se calculan como combinaciones de 12 elementos tomados de 3 en
3 (es decir, determinamos todos las posibles alternativas de 3 caballos que pueden entrar en las 3
primeras posiciones). Como el orden de estos 3 primeros caballos no importa, utilizamos
combinaciones en lugar de variaciones.
Por lo tanto, los casos posibles son:
Por lo que la probabilidad de acertar los 3 caballos ganadores es:
Algo mayor que en las quinielas.... Eso s, se paga menos.
4.- Y si hubiera que acertar, no slo los 3 caballos que ganan, sino el orden de su entrada en meta.
Solucin:
El caso favorable sigue siendo uno: los 3 caballos que entran en primer lugar, colocados en su orden
correspondiente.
Los casos posibles se calculan ahora como variaciones (ya que el orden influye) de 12 elementos
tomados de 3 en 3 (calculamos todas las posibles maneras en que los 12 caballos podran ocupar las
3 primeras posiciones.
Por lo que la probabilidad de acertar los 3 caballos ganadores es:
Menor que en el ejemplo 3. Ya no vale acertar que 3 caballos entran en primer lugar, sino que
tenemos que acertar el orden de su entrada.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
45/90
Ejemplo: Calcular las permutaciones de 10 elementos, en los que uno de ellos se repite en 2
ocasiones y otro se repite en 3 ocasiones:
Es decir, tendramos 302,400 formas diferentes de agrupar estos 10 elementos.
Introduccin a los Conjuntos
Un conjunto es una coleccin de objetos, Comnmente los conjuntos se designan con letras
maysculas A, B, etc. Para describir qu objetos estn contenidos en el conjunto A, se dispone de
tres mtodos:
a) Anotar los elementos de A: A = 1,2,3,4`
b) Describir al conjunto con palabras: El conjunto A est formado por los nmeros naturales
del 1 al 4
c) Simplemente escribimos una notacin simblica: A = x( 1 x 4, x N`
Los objetos que forman parte de la coleccin del conjunto A, se llaman miembros o elementos de A.
Cuando a es un elemento de A, escribimos a A y cuando a no es un elemento de A, escribimos
a A.
Hay dos conjuntos especiales que a menudo son de inters. En la mayor parte de los problemas
estamos interesados en el estudio de un conjunto definido de objetos y no de otros; por ejemplo, en
todos los nmeros reales, en todos los artculos que salen de una lnea de produccin durante un
periodo de 24 horas, etc. Definimos el conjunto universal como el conjunto de todos los objetos que
se consideran. Normalmente este conjunto se designa con U.
Otro conjunto que se destaca es el que no contiene elemento alguno. Esta situacin ocurre tan a
menudo que justifica la introduccin de un nombre especial para tal conjunto y que es Conjunto Nulo
o Vaco. En general, este conjunto se designa con el signo .
Puede ser que cuando se consideran dos conjuntos A y B, ser miembro de A implica ser un elemento
de B. En tal caso, se dice que A es un subconjunto de B y se escribe A B.
Las propiedades siguientes del conjunto nulo y del conjunto universal son inmediatas:
a) Para cualquier conjunto A, se tiene A
b) Una vez que se ha acordado el conjunto universal, entonces para cualquier conjunto A
considerado que est en U, tenemos que A U
Asimismo, podemos considerar la idea de combinar conjuntos dados con el fin de formar un nuevo
conjunto, as se tendr:
C = |x A o x B` C = A U B
D = |x A y x B` D = A B
C = A U B D = A B A
c
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
46/90
Finalmente, la idea del complemento de un conjunto A es tal que describe a todos los elementos que
no estn en A (sino en el conjunto universal U) y se llama el complemento de A. Esto es, A
c
=
x(xA`.
Probabilidad condicionada
De acuerdo a la definicin previamente dada: un evento se asocia a un espacio muestral, y el evento
se representa por medio de un subconjunto de . Por consiguiente todas las probabilidades se
relacionan con un espacio muestral completo.
Con el propsito de denotar la probabilidad de ocurrencia de un evento determinado, se ha utilizado
comnmente el smbolo P(A); sin embargo, podra tambin haberse utilizado el smbolo: P(A|) que
se lee como la probabilidad de A, dado el espacio muestral .
Este anlisis puede extenderse al caso en el que eventos estudiados ocurren simultneamente. Por
ejemplo, considere un grupo de 100 personas, de las que 40 son estudiantes graduados, 20 trabajan
por su cuenta y 10 cumplen las dos condiciones anteriores. Si dejamos que B represente el conjunto
de los estudiantes graduados y A el conjunto de los que trabajan por su cuenta, tendremos entonces
que: AB (lase como a y b) es el conjunto de los estudiantes graduados que trabajan por su
cuenta. Si seleccionamos entonces 1 persona al azar del grupo de 100 y aplicando el principio de
probabilidad: P(A) = 0.20, P(B) = 0.40, P(AB) = 0.10 y se considera el suceso: seleccin de una
persona que trabaja por su cuenta dado que es un estudiante graduado P(A|B), es obvio que el
espacio muestral se reduce por el hecho de que slo se consideran los estudiantes graduados. La
probabilidad P(A|B) est dada en consecuencia por:
25 . 0
40 . 0
10 . 0
) (
) (
) / ( = = =
B P
B A P
B A P
Lo que significa que el espacio muestral est compuesto por el conjunto de todos los subconjuntos de
que pertenecen a B, de los subconjuntos pertenecientes a B, y que satisface la condicin AB.
Por consiguiente, podemos definir la probabilidad condicional del evento A dado el evento B como:
0 ) (
) (
) (
) | ( > = B P sii
B P
B A P
B A P
En otras palabras, las probabilidades condicionadas se calculan una vez que se ha incorporado
informacin adicional a la situacin de partida:
Ejemplo: se tira un dado y sabemos que la probabilidad de que salga un 2 es 1/6 (probabilidad a
priori). Si incorporamos nueva informacin (por ejemplo, alguien nos dice que el resultado ha sido un
nmero par) entonces la probabilidad de que el resultado sea el 2 ya no es 1/6.
Las probabilidades condicionadas se calculan aplicando la frmula anterior:
Donde:
P (B/A) es la probabilidad de que se de el suceso B condicionada a que se haya dado el suceso A.
P (B A) es la probabilidad del suceso simultneo de A y de B
P (A) es la probabilidad a priori del suceso A
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
47/90
En el ejemplo que vemos:
P (B/A) es la probabilidad de que salga el nmero 2 (suceso B) condicionada a que haya salido un
nmero par (suceso A).
P (B A) es la probabilidad de que salga el dos y nmero par.
P (A) es la probabilidad a priori de que salga un nmero par.
Por lo tanto:
P (B A) = 1/6
P (A) = 1/2
P (B/A) = (1/6) / (1/2) = 1/3
Luego, la probabilidad de que salga el nmero 2, si ya sabemos que ha salido un nmero par, es de
1/3 (mayor que su probabilidad a priori de 1/6).
2 ejemplo:
En un estudio sanitario se ha llegado a la conclusin de que la probabilidad de que una persona sufra
problemas coronarios (suceso B) es el 0,10 (probabilidad a priori). Adems, la probabilidad de que
una persona sufra problemas de obesidad (suceso A) es el 0,25 y la probabilidad de que una persona
sufra a la vez problemas de obesidad y coronarios (suceso interseccin de A y B) es del 0,05.
Calcular la probabilidad de que una persona sufra problemas coronarios si est obesa (probabilidad
condicionada P(B/A).
P (B A) = 0,05
P (A) = 0,25
P (B/A) = 0,05 / 0,25 = 0,20
Por lo tanto, la probabilidad condicionada es superior a la probabilidad a priori.
No siempre esto es as, a veces la probabilidad condicionada es igual a la probabilidad a priori
o menor. Por ejemplo: la probabilidad de que al tirar un dado salga el nmero 2, condicionada a que
haya salido un nmero impar. La probabilidad condicionada es en este caso cero, frente a una
probabilidad a priori de 1/6.
Probabilidad compuesta
La probabilidad de que se den simultneamente dos sucesos (suceso interseccin de A y B) es
igual a la probabilidad a priori del suceso A multiplicada por la probabilidad del suceso B
condicionada al cumplimiento del suceso A.
La frmula para calcular esta probabilidad compuesta es:
0 ) ( ) ( ) / ( ) ( > = A P A P A B P B A P
Ejemplo 1 : Estudiamos el suceso A (porcentaje de varones mayores de 40 aos casados) y el
suceso B (varones mayores de 40 aos con ms de 2 hijos) y obtenemos la siguiente informacin:
Un 35% de los varones mayores de 40 aos estn casados.
De los varones mayores de 40 aos y casados, un 30% tienen ms de 2 hijos
(suceso B condicionado al suceso A).
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
48/90
Calcular la probabilidad de que un varn mayor de 40 aos est casado y tenga ms de 2 hijos
(suceso interseccin de A y B).
Por lo tanto:
P (A) = 0,35
P (B/A) = 0,30
P (A i B) = 0,35 * 0,30 = 0,105
Es decir, un 10,5% de los varones mayores de 40 aos estn casados y tienen ms de 2 hijos.
2 ejemplo: Estudiamos el suceso A (alumnos que hablan ingls) y el suceso B (alumnos que hablan
alemn) y obtenemos la siguiente informacin:
Un 50% de los alumnos hablan ingls.
De los alumnos que hablan ingls, un 20% hablan tambin alemn (suceso B
condicionado al suceso A).
Calcular la probabilidad de que un alumno hable ingls y alemn (suceso interseccin de A y B).
Por lo tanto:
P (A) = 0,50
P (B/A) = 0,20
P (AiB) = 0,50 * 0,20 = 0,10
Es decir, un 10% de los alumnos hablan ingls y alemn.
El Teorema de la probabilidad total nos permite calcular la probabilidad de un suceso a partir de
probabilidades condicionadas:
Ejemplo: supongamos que si llueve la probabilidad de que ocurra un accidentes es x% y si hace
buen tiempo dicha probabilidad es y%. Este teorema nos permite deducir cul es la probabilidad de
que ocurra un accidente si conocemos la probabilidad de que llueva y la probabilidad de que haga
buen tiempo.
La frmula para calcular esta probabilidad es:
Es decir, la probabilidad de que ocurra el suceso B (en nuestro ejemplo, que ocurra un accidente)
es igual a la suma de multiplicar cada una de las probabilidades condicionadas de este suceso
con los diferentes sucesos A (probabilidad de un accidente cuando llueve y cuando hace buen
tiempo) por la probabilidad de cada suceso A.
Para que este teorema se pueda aplicar hace falta cumplir un requisito:
Los sucesos A tienen que formar un sistema completo, es decir, que contemplen todas las
posibilidades (la suma de sus probabilidades debe ser el 100%).
Ejemplo: al tirar una moneda, el suceso "salir cara" y el suceso "salir cruz" forman un sistema
completo, no hay ms alternativas: la suma de sus probabilidades es el 100%
Ejemplo: al tirar un dado, que salga el 1, el 2, el 3, o el 4 no forman un sistema completo, ya que no
contempla todas las opciones (podra salir el 5 o el 6). En este caso no se podra aplicar el teorema
de la probabilidad total.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
49/90
Ejercicio 1: En un saquito hay papeletas de tres colores, con las siguientes probabilidades de ser
elegidas:
a) Amarilla: probabilidad del 50%.
b) Verde: probabilidad del 30%
c) Roja: probabilidad del 20%.
Segn el color de la papeleta elegida, podrs participar en diferentes sorteos. As, si la papeleta
elegida es:
a) Amarilla: participas en un sorteo con una probabilidad de ganar del 40%.
b) Verde: participas en otro sorteo con una probabilidad de ganar del 60%
c) Roja: participas en un tercer sorteo con una probabilidad de ganar del 80%.
Con esta informacin, qu probabilidad tienes de ganar el sorteo en el que participes?:
1.- Las tres papeletas forman un sistema completo: sus probabilidades suman 100%
2.- Aplicamos la frmula:
Luego,
P (B) = (0,50 * 0,40) + (0,30 * 0,60) + (0,20 * 0,80) = 0,54
Por tanto, la probabilidad de que ganes el sorteo es del 54%.
Ejercicio 2: Van a cambiar a tu jefe y se barajan diversos candidatos:
a) Carlos, con una probabilidad del 60%
b) Juan, con una probabilidad del 30%
c) Luis, con una probabilidad del 10%
En funcin de quien sea tu prximo jefe, la probabilidad de que te suban el sueldo es la siguiente:
a) Si sale Carlos: la probabilidad de que te suban el sueldo es del 5%.
b) Si sale Juan: la probabilidad de que te suban el sueldo es del 20%.
c) Si sale Luis: la probabilidad de que te suban el sueldo es del 60%.
En definitiva, cual es la probabilidad de que te suban el sueldo?:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
50/90
1.- Los tres candidatos forman un sistema completo
2.- Aplicamos la frmula:
P (B) = (0,60 * 0,05) + (0,30 * 0,20) + (0,10 * 0,60) = 0,15
Por tanto, la probabilidad de que te suban el sueldo es del 15%. Lo llevas claro amigo
Teorema de Bayes
El Teorema de Bayes viene a seguir el proceso inverso al que hemos visto en el Teorema de la
probabilidad total:
Teorema de la probabilidad total: a partir de las probabilidades del suceso A (probabilidad de que
llueva o de que haga buen tiempo) deducimos la probabilidad del suceso B (que ocurra un
accidente).
Teorema de Bayes: a partir de que ha ocurrido el suceso B (ha ocurrido un accidente) deducimos
las probabilidades del suceso A (estaba lloviendo o haca buen tiempo?).
La frmula del Teorema de Bayes es:
Ejercicio 1: El parte meteorolgico ha anunciado tres posibilidades para el fin de semana:
a) Que llueva: probabilidad del 50%.
b) Que nieve: probabilidad del 30%
c) Que haya niebla: probabilidad del 20%.
Segn estos posibles estados meteorolgicos, la posibilidad de que ocurra un accidente es la
siguiente:
a) Si llueve: probabilidad de accidente del 10%.
b) Si nieva: probabilidad de accidente del 20%
c) Si hay niebla: probabilidad de accidente del 5%.
Resulta que efectivamente ocurre un accidente y como no estbamos en la ciudad no sabemos que
tiempo hizo (nev, llovo o hubo niebla). El teorema de Bayes nos permite calcular estas
probabilidades:
Las probabilidades que manejamos antes de conocer que ha ocurrido un accidente se
denominan "probabilidades a priori" (lluvia con el 60%, nieve con el 30% y niebla con el
10%).
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
51/90
Una vez que incorporamos la informacin de que ha ocurrido un accidente, las probabilidades
del suceso A cambian: son probabilidades condicionadas P (A/B), que se denominan
"probabilidades a posteriori".
Vamos a aplicar la frmula:
a) Probabilidad de que estuviera lloviendo:
La probabilidad de que efectivamente estuviera lloviendo el da del accidente (probabilidad a
posteriori) es del 71,4%.
b) Probabilidad de que estuviera nevando:
La probabilidad de que estuviera nevando es del 21,4%.
c) Probabilidad de que hubiera niebla:
La probabilidad de que hubiera niebla es del 7,1%.
Independencia de Sucesos
Dos sucesos son independientes entre s, si la ocurrencia de uno de ellos no afecta para nada a la
ocurrencia del otro:
Ejemplo: el suceso estatura de los alumnos de una clase y el color del pelo son independientes: el
que un alumno sea ms o menos alto no va a influir en el color de su cabello, ni viceversa.
Para que dos sucesos sean independientes tienen que verificar al menos una de las siguientes
condiciones:
P (B/A) = P (B) es decir, que la probabilidad de que se de el suceso B, condicionada a que
previamente se haya dado el suceso A, es exactamente igual a la probabilidad de B.
Ejemplo: la probabilidad de que al tirar una moneda salga cara (suceso B), condicionada a que haga
buen tiempo (suceso A), es igual a la propia probabilidad del suceso B.
P (A/B) = P (A) es decir, que la probabilidad de que se de el suceso A, condicionada a que
previamente se haya dado el suceso B, es exactamente igual a la probabilidad de A.
Ejemplo: la probabilidad de que haga buen tiempo (suceso A), condicionada a que al tirar una
moneda salga cara (suceso B), es igual a la propia probabilidad del suceso A.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
52/90
P (A i B) = P (A) * P (B) es decir, que la probabilidad de que se de el suceso conjunto A y B es
exactamente igual a la probabilidad del suceso A multiplicada por la probabilidad del suceso B.
Ejemplo: la probabilidad de que haga buen tiempo (suceso A) y salga cara al tirar una moneda
(suceso B), es igual a la probabilidad del suceso A multiplicada por la probabilidad del suceso B
Si el suceso A es independiente del suceso B, entonces el suceso B tambin es independiente
del suceso A.
Ejemplo 1: analicemos dos sucesos:
Suceso A: la probabilidad de que haga buen tiempo es del 0,4
Suceso B: la probabilidad de tener un accidente es del 0,1
Suceso interseccin: la probabilidad de que haga buen tiempo y tener un accidente es del 0,08
Veamos si se cumple alguna de las condiciones sealadas:
P (B/A) = P (A i B) / P (A) = 0,08 / 0,4 = 0,2 (que no es igual a P (B))
P (A/B) = P (AiB) / P (B) = 0,08 / 0,6 = 0,133 (que no es igual a P (A))
P (A iB) = 0,08 (que no es igual a P (A) multiplicado por P (B))
Por lo tanto, no se cumple ninguna de las tres condiciones sealadas por lo que estos dos sucesos
no son independientes, sino que existe algn grado de dependencia entre ellos.
Ejemplo 2: analicemos dos sucesos:
Suceso A: la probabilidad de que haga buen tiempo es del 0,4
Suceso B: la probabilidad de salir cara al lanzar una moneda es del 0,5
Suceso interseccin: la probabilidad de que haga buen tiempo y que salga cara es
0,2
Veamos si se cumple alguna de las condiciones sealadas:
P (B/A) = P (A i B) / P (A) = 0,2 / 0,4 = 0,5 (igual que P (B))
P (A/B) = P (A i B) / P (B) = 0,2 / 0,6 = 0,4 (igual que P (A))
P (AiB) = 0,2 (igual a P (A) multiplicado por P (B))
Por lo tanto, estos dos sucesos s son independientes.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
53/90
VARIABLES ALEATORIAS UNIDIMENSIONALES
Cuando se describe el espacio muestral de un experimento aleatorio, no es necesario especificar que
un resultado individual ser un nmero. En varios casos, se observa que los resultados son
preferiblemente cualitativos, por lo que se hace uso de las variables aleatorias.
Una variable aleatoria es una funcin que asocia un nmero real a cada elemento del espacio
muestral.
Ejemplo
Se extraen en forma sucesiva dos bolas, sin reemplazo, de una urna que contienen 4 bolas rojas y 3
negras. Los posibles resultados y los valores y de la variable aleatoria Y , en donde Y es el nmero
de bolas rojas son:
Espacio Muestral Y
RR 2
NR 1
RN 1
NN 0
Si se define adems que:
Si un espacio muestral contiene un nmero finito de posibilidades iguales al nmero de
puntos que se encuentran en un segmento de lnea, se le denomina: Espacio Muestral
Continuo.
Si un espacio muestral contiene un nmero infinito de posibilidades o una secuencia sin
final con igual nmero de elementos que nmeros enteros, se le denomina: Espacio
Muestral Discreto
Entonces a una variable aleatoria se la denomina variable aleatoria discreta si su conjunto de
posibles resultados es contable y variable aleatoria continua si puede tomar valores en una escala
continua.
Con frecuencia, los posibles valores contenidos en un espacio muestral continuo son precisamente
los mismos valores contenidos en el espacio muestral continuo; en otros casos, las variables
aleatorias continuas representan datos medidos, mientras que en los eventos discretos las variables
aleatorias representan datos que se cuentan.
Variables aleatorias discretas
Dada una v.a. discreta , su funcin de probabilidad f, se define de modo que f(x
i
) es
la probabilidad de que X tome ese valor:
Si x
i
no es uno de los valores que puede tomar X, entonces f(x
i
)=0. La representacin grfica de la
funcin de probabilidad se realiza mediante un diagrama de barras anlogo al de distribucin de
frecuencias relativas para variables discretas. Por ejemplo, si retomamos el caso del lanzamiento de 3
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
54/90
monedas de forma que cada una de ellas tenga probabilidad 1/2 de dar como resultado cara o cruz,
se tiene que
Equivalencia entre las probabilidades calculadas directamente sobre el espacio muestral E de resultados del
experimento aleatorio, y las calculadas sobre el subconjunto [0,1,2,3] R mediante la v.a. X.
Distribuciones Discretas de Probabilidad
Obsrvese que X est definido sobre el espacio muestral de sucesos E, mientras que f lo est sobre
el espacio de nmeros reales .
Las propiedades de la funcin de probabilidad de v.a. se deducen de forma inmediata de los axiomas
de probabilidad:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
55/90
Es evidente que si tenemos tres constantes a<b<c, los sucesos y
son mutuamente exclusivos, es decir, A i B = , luego P{A i B} = . Por ello, si se define C ={a > X
> c} = A U B, se tiene que
Otro concepto importante es el de funcin de distribucin de una variable aleatoria discreta, F, que
se define de modo que si x R, F(x
i
) es igual a la probabilidad de que X tome un valor inferior o igual
a x
i
:
Esta funcin se representa grficamente del mismo modo que la distribucin de frecuencias relativas
acumuladas. Volviendo al ejemplo de las tres monedas, se tiene que
Hay que observar que a valores no admisibles por la variable les pueden corresponder valores de F
no nulos. Por ejemplo,
Funcin de probabilidad a la izquierda, y funcin de distribucin a la derecha de una v.a. discreta
Es sencillo comprobar que las siguientes propiedades de la funcin de distribucin son ciertas:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
56/90
Proposicin (Distribuciones discretas)
La funcin de distribucin F, es una funcin no decreciente, es decir,
Adems, es continua a la derecha
y
Nota
Con frecuencia, resulta conveniente representar todas las probabilidades de una variable aleatoria X
a travs de una frmula. Esta frmula sera necesariamente funcin de los valores numricos x, que
se denotan por f(x), g(x), r(x) y asi sucesivamente. Por lo tanto se escribe: f(x) = P(X = x), es decir:
f(3) = P(X = 3). El nmero de pares ordenados (x, f(x)) es una funcin de probabilidad o una
distribucin de la variable aleatoria discreta X si, para cada posible resultado de x:
Al conjunto de pares ordenados (x,f(x)) se le denomina funcin de probabilidad o distribucin de
probabilidad de la variable aleatoria x.
a)
A
0
b) (x)
= 1
c) P(X = x) = f(x)
La distribucin acumulada F(x) de una variable aleatoria discreta X con distribucin de probabilidad
f(x) est dada por:
< < = =
x para t f x X P x F
x t
) ( ) ( ) (
As para el ejemplo que utilizamos:
<
<
<
=
2 1
2 1 75 . 0
1 0 25 . 0
0 0
) (
y para
y para
y para
y para
y F
Distribuciones de Probabilidad Continua
Si una variable discreta toma los valores x
1
, ..., x
k
, la proposicin de la pgina afirma que las
probabilidad de que al hacer un experimento, X tome uno de esos valores es 1, de modo que cada
posible valor x
i
contribuye con una cantidad f(x
i
) al total:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
57/90
Aun cuando la variable tomase un nmero infinito de valores, x
1
, x
2
, ..., no hay ningn problema en
comprobar que cada x
i
contribuye con una cantidad f(x
i
) al total de modo que
Cuando la variable es continua, no tiene sentido hacer una suma de las probabilidades de cada uno
de los trminos en el sentido anterior, ya que el conjunto de valores que puede tomar la variable es no
numerable. En este caso, lo que generaliza de modo natural el concepto de suma () es el de integral
( ) Por otro lado, para variables continuas no tiene inters hablar de la probabilidad de que X = x
R, ya que esta debe de valer siempre 0, para que la suma infinita no numerable de las
probabilidades de todos los valores de la variable no sea infinita.
De este modo es necesario introducir un nuevo concepto que sustituya en variables aleatorias
continuas, al de funcin de probabilidad de una v.a. discreta. Este concepto es el de funcin de
densidad de una v.a. continua, que se define como una funcin
integrable, que verifica las dos propiedades siguientes:
y que adems verifica que dado a<b, se tiene que
Funcin de densidad f. La probabilidad de un intervalo, es el rea que existe entre la funcin y el eje
de abscisas
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
58/90
Entonces, una variable aleatoria continua tiene probabilidad de cero de tomar exactamente cualquiera
de sus valores. Luego, no es posible presentar su distribucin de probabilidad en forma tabular. Es
por ello, que los clculos de probabilidad para diversos intervalos de una variable aleatoria continua
como ser:P(a<X<b)
P(a X b) = P(a<X<b) +P(x=b) = P(a<X<b)
Nota
Es decir, no importa si se incluye o no un punto final en el intervalo. Esta condicin no es
vlida cuando X es discreta
Aunque la distribucin de probabilidad de una variable aleatoria continua no se puede presentar en
forma tabular, se puede tener una frmula. Esta frmula, necesariamente ser funcin de los valores
numricos de la variable continua X y como tal se presentar a travs de la notacin funcional f(x). Al
manejar variables continuas f(x) normalmente se conoce como funcin densidad de probabilidad o
funcin de densidad.
Una funcin de densidad de probabilidad se construye de manera que el rea bajo su curva limitada
por el eje x sea igual a 1 cuando se calcula el rango de X para el que se ha definido f(x). Si este
rango de X fuera un intervalo finito, siempre es posible ampliar el intervalo para incluir el conjunto total
de nmeros reales; adems la probabilidad de que X tome un valor entre los lmites a y b es igual al
rea encerrada entre dichos lmites, la curva de funcin de densidad y el eje de las x. Lo que significa:
P(a<X<b) =
}
b
a
dx X f ) (
Observacin
Por ser f una funcin integrable, la probabilidad de un punto es nula:
y por ello al calcular la probabilidad de un intervalo no afectara nada el que este sea abierto o cerrado
por cualquiera de sus extremos, pues estos son puntos y por tanto de probabilidad nula:
La funcin de distribucin de la v.a. continua, F, se define de modo que dado x R, F(x) es la
probabilidad de que X sea menor o igual que x, es decir
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
59/90
Funcin de distribucin F, calculada a partir de la funcin de densidad f.
La funcin f(x) es una funcin densidad de probabilidad para la variable aleatoria continua X,
definida sobre el conjunto de los nmeros reales R si:
a)
A
0 para toda R x
b)
}
dx X f ) ( = 1
c) P(a<X<b) =
}
b
a
dx X f ) (
La distribucin acumulada F(x) de una variable aleatoria continua X, con funcin de densidad f(x)
est dada por:
F(x) =P(Xx) =
}
+
dt t f ) ( para - < x <
Como consecuencia inmediata se tiene que :
P(a<Z<b) = F(b) F(a)
dx
x dF
x f
) (
) ( =
si existe la derivada.
Ejemplo:
Suponga que el error en la temperatura de reaccin en grados centgrados, para un experimento
controlado de laboratorio es una variable aleatoria continua X que tiene la funcin de probabilidad:
< <
=
caso otro
x
x
x f
0
2 1
3
) (
2
a) verifique la condicin de ser funcin de densidad ; b) Encuentre P(0<X1)
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
60/90
ESPERANZA MATEMTICA
Introduccin
De forma anloga a lo que se se hizo en estadstica descriptiva, podemos definir para variables
aleatorias medidas de centralizacin, dispersin, simetra y forma. Por su inters nos vamos a centrar
en dos medidas sobre variable aleatoria que son la esperanza matemtica que desempea un papel
equivalente al de la media y el momento central de segundo orden, tambin denominado varianza.
Valor esperado o esperanza matemtica
Sea X una variable aleatoria discreta. Se denomina esperanza matemtica de X o valor esperado, y
se denota bien E[x] o bien , a la cantidad que se expresa como:
donde es el conjunto numerable de ndices de los valores que puede tomar la variable (por ejemplo
II = {1,2,....,k} para un nmero finito de valores de la variable aleatoria. o bien para una
cantidad infinita numerable de los mismos.
Si X es una variable aleatoria continua, se define su esperanza a partir de la funcin de densidad
como sigue:
En resumen
continua es si
dx x xf X E
discreta es si
x xf X E
x
}
+
= =
= =
) ( ) (
) ( ) (
Todo ello, sii xp(x) es absolutamente convergente y x f(x)dx es absolutamente convergente.
La esperanza matemtica de X, se llama tambin media de la variable aleatoria y se
denota por
Nota: Un juego se considera equitativo, si la esperanza matemtica o valor esperado de la
ganancia es cero.
Ejemplo
Si se tiran dos monedas al aire 16 veces y X representa el nmero de caras que ocurren por
lanzamiento, entonces los valores de X pueden ser 0,1 y 2. Suponga que en el experimento se
obtienen cero caras, una cara 7 veces y dos caras 5 veces. El promedio de caras por lanzamiento de
las dos monedas es entonces:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
61/90
06 . 1 |
16
) 5 )( 2 ( ) 7 )( 1 ( ) 4 )( 0 (
=
+ +
Este es un valor promedio y no necesariamente un resultado posible del experimento.
Reestructurando ahora el clculo para el valor promedio encontrado anteriormente:
06 . 1 | )
16
5
)( 2 ( )
16
7
)( 1 ( )
16
4
)( 0 ( = + +
Los nmeros 4/16, 7/16y 5/16 son las fracciones del total de lanzamientos que resulta en 0,1 y 2
caras respectivamente. Estas fracciones son tambin las frecuencias relativas que corresponden a
los diferentes valores de X en el experimento. En efecto, se puede calcular entonces la media o el
promedio de un conjunto de datos si se conocen los distintos valores que intervienen y sus
frecuencias relativas.
La Esperanza Matemtica tanto de la variable aleatoria discreta como continua, es igual a la abscisa
del centro de gravedad del rea acotada por la curva o el polgono de distribucin de probabilidad y el
eje de abscisas o en otras palabras, es el centro de gravedad de todos los datos obtenidos de
acuerdo a s u peso definido por la probabilidad de ocurrencia de cada variable aleatoria.
Propiedades de la Esperanza Matemtica
Recordamos que si
y por tanto tiene sentido calcular su esperanza matemtica:
Por las analogas existente entre la definicin de media aritmtica y esperanza matemtica, las
propiedades de linealidad de la primera se trasladan a la segunda, como es inmediato comprobar:
Adicionalmente, sabemos que al existir una variable aleatoria que define el comportamiento de un
experimento, es factible encontrar una funcin de transferencia Y= H(x); consecuentemente, el valor
esperado de la variable aleatoria X podr ser tambin transferido por E[H(X)], es as que:
[ ]
[ ] b x aE b aX E
dx x f x H X H E
o x p x H x H E
x
R x
=
(
(
=
=
}
) (
) ( ) ( ) (
) ( ) ( ) (
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
62/90
Eventos Equivalentes
Se dice que dos eventos son equivalentes, si E
x
es un evento en R
x
(E
x
R
x
) y F
y
un evento en R
y
(F
y
R
y
) se dan a travs de: E
x
= {x R
x
/H(x) F
y
}. En otras palabras, los eventos son equivalentes si
la ocurrencia de uno implica la ocurrencia del otro.
Por otra parte, si X es una variable aleatoria definida en el espacio muestral con rango R
x,
entonces
la funcin de transferencia H(x) de modo que Y = H(x) es una variable aleatoria con rango R
y ,
entonces para cualquier evento F
y
R
y
definimos que p[F
y
] = p[{x R
x
/H(x) F
y
} ] = p [E
x
]. Es
decir, la probabilidad de un evento en el rango Y est definida como la probabilidad del evento
equivalente en R
x.
Sea x una variable aleatoria cuya funcin de probabilidad es:
casos otros en
x
a
a e
x p
x a
0
,.... 2 , 1 , 0 ,
!
) ( = =
=
casos otros
x x
x f
, 0
5 2 0 , 10 /
) ( Si Y = H(x) = 2X + 6. Calcular la funcin de densidad g en Y
a)
Encontremos los lmites de la funcin: para x = 0 y = 6; x = 2(5)
0.5
y = 4x5
0.5
+6
b) Se conoce adems que: y =
2
6 y
entonces:
G(y) = p(Y y) 0 p(2X + 6 y) = p[X
2
6 y
]
}
+ = = =
2
6
0
2
2
6
0
2
) 36 12 (
80
1
20 10
) (
y
y
y y
x
dx
x
y G
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
63/90
20
3
40
) ( ) ( = =
y
y G
dy
d
y g
+
=
casos otros
y
y
y g
, 0
6 5 4 6 ,
20
3
40
) (
Nota. G(y) puede obtenerse de
dy
dx
x f ) (
Varianza de una Variable Aleatoria
La varianza de una variable aleatoria X, se denota por Var(X) o por la letra griega
2
y se define como
el primer momento respecto al valor esperado de las variables aleatorias
Var(x) =
2
= E[ [[ [(X- )
2
] ]] ]
Por lo tanto:
[ ]
( ) dx x f x
x p x X E
x
R x
) (
) ( ) ( ) (
2
2
2 2 2
}
=
= =
Resultado de la Varianza es la llamada Desviacin Tpica que se define como la raz cuadrada de la
varinaza y se denota por . La desviacin tpica con un valor pequeo indica poca dispersin,
mientras que un valor grande indica gran dispersin.
[ ]
) (
) ( ) (
2 2
2 2
x Var a
x Var a b aX Var
=
= =
Nota
La esperanza matemtica y la varianza pueden ser calculadas a partir de otras medidas, que son los
momentos.
Momentos de una Variable Aleatoria
Se denomina momento de orden r ( r N),
r
, a:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
64/90
Asimismo se denomina momento central de orden r, m
r
, a:
De este modo, es claro que la esperanza matemtica es el momento de primer orden
Teorema de Chebyshev
Si X es variable aleatoria con y , entonces
Este importante resultado, por si slo, justifica el que sea una medida de centralizacin y o (o bien
o
2
) de dispersin de X y motiva la introduccin del concepto de tipificacin de variables aleatorias.
Dada una variable aleatoria X, definimos su variable aleatoria tipificada, Z, como:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
65/90
Distribuciones Discretas y Continuas
Una vez que hemos tomado conocimiento de las tcnicas de conteo, el valor esperado que se puede
encontrar en un experimento aleatorio y su varianza o grado de dispersin, es ms cmodo poder
establecer las distribuciones que se aplican para obtener la probabilidad de ocurrencia de un evento
en particular.
En el caso de las distribuciones discretas, el comportamiento de la variable aleatoria discreta se
describe por su distribucin de probabilidad sin importar si sta se representa de manera grfica por
un histograma, en forma tabular o por medio de una frmula.
Las distribuciones discretas son aquellas en las que la variable puede pude tomar un nmero
determinado de valores:
Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado
puede salir un nmero de 1 al 6; en una ruleta el nmero puede tomar un valor del 1
al 32.
Las distribuciones continuas son aquellas que presentan un nmero infinito de posibles soluciones:
Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos valores
dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc); la esperanza
media de vida de una poblacin (72,5 aos, 7,513 aos, 72, 51234 aos).
Vamos a comenzar por estudiar las principales distribuciones discretas.
Con frecuencia, las observaciones generadas por experimentos estadsticos tienen en general
el mismo tipo de comportamiento. En consecuencia, las variables aleatorias discretas asociadas a
estos experimentos pueden ser descritas por la misma distribucin de probabilidad.
Distribucin Discreta Uniforme.
La ms simple de todas las distribuciones de probabilidad discretas es aquella en la que la variable
aleatoria asume cada uno de sus valores con igual probabilidad. Esta distribucin se llama
distribucin Discreta Uniforme.
k
x x x
k
k x f ,.....,
1
) ; (
2 , 1
=
Si la variable aleatoria X toma los valores x
1
, x
2
, x
3
, x
4
,x
1
....., x
n
con igual probabilidad , entonces la
distribucin discreta uniforme est dada por f(x;k) son:
k
x
k
x
k
i
i
k
i
i
= =
= =
1
2
1
) (
Distribuciones discretas: Bernoulli
Es aquel modelo que sigue un experimento que se realiza una sola vez y que puede tener dos
soluciones: acierto o fracaso:
Cuando es acierto la variable toma el valor 1
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
66/90
Cuando es fracaso la variable toma el valor 0
La distribucin de probabilidad de la variable aleatoria de Bernoulli es llamada la distribucin de
Bernoulli y su grfica se muestra a continuacin:
X 0 1
p(x) q = 1-p P
Ejemplo
S = {ccc,ccs,csc,css,scc,scs,ssc,sss}
R
x
= {0,1,2,3}
X 0 1 2 3
P(x) (1-p)
3
3p(1-p)
2
3p
2
(1-
p)
p
3
Ejemplo: Probabilidad de salir cara al lanzar una moneda al aire (sale cara o no sale); probabilidad
de ser admitido en una universidad (o te admiten o no te admiten); probabilidad de acertar una
quiniela (o aciertas o no aciertas)
Al haber nicamente dos soluciones se trata de sucesos complementarios:
A la probabilidad de xito se le denomina "p"
A la probabilidad de fracaso se le denomina "q"
Verificndose que:
p + q = 1
Veamos los ejemplos anteriores :
Ejemplo 1: Probabilidad de salir cara al lanzar una moneda al aire:
Probabilidad de que salga cara: p = 0,5
Probabilidad de que no salga cara: q = 0,5
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
67/90
p + q = 0,5 + 0,5 = 1
Ejemplo 2: Probabilidad de ser admitido en la universidad:
Probabilidad de ser admitido: p = 0,25
Probabilidad de no ser admitido: q = 0,75
p + q = 0,25 + 0,75 = 1
Ejemplo 3: Probabilidad de acertar una quiniela:
Probabilidad de acertar: p = 0,00001
Probabilidad de no acertar: q = 0,99999
p + q = 0,00001 + 0,99999 = 1
Distribuciones discretas: Binomial
Las distribucin binomial parte de la distribucin de Bernouilli:
La distribucin de Bernouiili se aplica cuando se realiza una sola vez un experimento que
tiene nicamente dos posibles resultados (xito o fracaso), por lo que la variable slo puede
tomar dos valores: el 1 y el 0
La distribucin binomial se aplica cuando se realizan un nmero"n" de veces el
experimento de Bernouiili, siendo cada ensayo independiente del anterior. La variable puede
tomar valores entre:
0: si todos los experimentos han sido fracaso
n: si todos los experimentos han sido xitos
Ejemplo: se tira una moneda 10 veces: cuantas caras salen? Si no ha salido ninguna la
variable toma el valor 0; si han salido dos caras la variable toma el valor 2; si todas han sido
cara la variable toma el valor 10
La distribucin de probabilidad de este tipo de distribucin sigue el siguiente modelo:
Alguien entiende esta frmula? Vamos a tratar de explicarla con un ejemplo:
Ejemplo 1: Cul es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces?
" k " es el nmero de aciertos. En este ejemplo " k " igual a 6 (en cada acierto
decamos que la variable toma el valor 1: como son 6 aciertos, entonces k = 6)
" n" es el nmero de ensayos. En nuestro ejemplo son 10
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
68/90
" p " es la probabilidad de xito, es decir, que salga "cara" al lanzar la moneda. Por
lo tanto p = 0,5
La frmula quedara:
Luego,
P (x = 6) = 0,205
Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda.
Ejemplo 2: Cul es la probabilidad de obtener cuatro veces el nmero 3 al lanzar un dado ocho
veces?
" k " (nmero de aciertos) toma el valor 4
" n" toma el valor 8
" p " (probabilidad de que salga un 3 al tirar el dado) es 1 / 6 (= 0,1666)
La frmula queda:
Luego,
P (x = 4) = 0,026
Es decir, se tiene una probabilidad del 2,6% de obtener cuatro veces el nmeros 3 al tirar un dado 8
veces.
Distribuciones discretas: Poisson
La distribucin de Poisson parte de la distribucin binomial segn el siguiente principio:
Los experimentos que resultan en valores numricos de una variable aleatoria X, misma que
representa el nmero de resultados durante el intervalo de tiempo dado o una regin especfica,
frecuentemente se llaman experimentos de Poisson. El intervalo de tiempo dado puede ser de
cualquier duracin de tiempo, por ejemplo un minuto, un da, una semana, un mes o inclusive un ao.
De aqu que un experimento de Poisson puede generar observaciones para la variable aleatoria X
que representa el nmero de algn evento en un lapso de tiempo dado.
Un experimento de Poisson sugiere del proceso de Poisson y tiene las siguientas propiedades:
1. El nmero de resultados que ocurren en un intervalo de tiempo o regin especficos es
independiente de el nmero que ocurre en cualquier otro intervalo disjunto de tiempo o regin
del espacio disjunto.
2. La probabilidad de que un resultado muy sencillo ocurra en un intervalo de tiempo muy corto
o en una regin pequea es proporcional a la longitud del intervalo de tiempo o al tamao de
la regin.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
69/90
3. La probabilidad de que ms de un resultado ocurra en un intervalo de tiempo tan corto o en
esa regin tan pequea es despreciable.
La distribucin de probabilidad de la variable aleatoria de Poisson X que representa el nmero de
resultados que ocurren en un intervalo de tiempo dado, indicado por t es:
Cuando en una distribucin binomial se realiza el experimento un nmero "n" muy elevado de veces
y la probabilidad de xito "p" en cada ensayo es reducida, entonces se aplica el modelo de
distribucin de Poisson:
Se tiene que cumplir que:
" p " < 0,10
" p * n " < 10
La distribucin de Poisson sigue el siguiente modelo:
Vamos a explicarla:
El nmero "e" es 2,71828
" l " = n * p (es decir, el nmero de veces " n " que se realiza el experimento
multiplicado por la probabilidad " p " de xito en cada ensayo)
" k " es el nmero de xito cuya probabilidad se est calculando
Veamos un ejemplo:
La probabilidad de tener un accidente de trfico es de 0,02 cada vez que se viaja, si se realizan 300
viajes, cual es la probabilidad de tener 3 accidentes?
Como la probabilidad " p " es menor que 0,1, y el producto " n * p " es menor que 10, entonces
aplicamos el modelo de distribucin de Poisson.
Luego,
P (x = 3) = 0,0892
Por lo tanto, la probabilidad de tener 3 accidentes de trfico en 300 viajes es del 8,9%
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
70/90
La probabilidad de que un nio nazca pelirrojo es de 0,012. Cul es la probabilidad de que entre 800
recien nacidos haya 5 pelirrojos?
Luego,
P (x = 5) = 4,602
Por lo tanto, la probabilidad de que haya 5 pelirrojos entre 800 recien nacidos es del 4,6%
Distribuciones Discretas: Hipergeomtrica
La distribucin hipergeomtrica es el modelo que se aplica en experimentos donde al igual que en la
distribucin binomial, en cada ensayo hay tan slo dos posibles resultados: o sale blanca o no sale.
Pero se diferencia de la distribucin binomial en que los distintos ensayos son dependientes entre s:
Si en una urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola blanca, en el
segundo ensayo hay una bola blanca menos por lo que las probabilidades son diferentes (hay
dependencia entre los distintos ensayos).
La distribucin hipergeomtrica sigue el siguiente modelo:
Donde:
Vamos a tratar de explicarlo:
N: es el nmero total de bolas en la urna
N1: es el nmero total de bolas blancas
N2: es el nmero total de bolas negras
k: es el nmero de bolas blancas cuya probabilidad se est calculando
n: es el nmero de ensayos que se realiza
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
71/90
Veamos un ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas Cul es la
probabilidad de que 3 sean blancas?
Entonces:
N = 12; N1 = 7; N2 = 5; k = 3; n = 4
Si aplicamos el modelo:
Por lo tanto, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas blancas es del 35,3%.
Pero este modelo no slo se utiliza con experimentos con bolas, sino que tambin se aplica con
experimentos similares:
Ejemplo: en una fiesta hay 20 personas: 14 casadas y 6 solteras. Se eligen 3 personas al azar Cul
es la probabilidad de que las 3 sean solteras?
Por lo tanto, P (x = 3) = 0,0175. Es decir, la probabilidad de que las 3 personas sean solteras es tan
slo del 1,75%.
Distribuciones discretas: Multinomial
La distribucin multinomial es similar a la distribucin binomial, con la diferencia de que en lugar
de dos posibles resultados en cada ensayo, puede haber mltiples resultados:
Ejemplo de distribucin binomial: a unas elecciones se presentaron 2 partidos
polticos: el POPO obtuvo un 70% de los votos y el JEJE el 30% restante. Cul es la
probabilidad de que al elegir 5 ciudadanos al azar, 4 de ellos hallan votado al JEJE?
Ejemplo de distribucin multinomial: a esas elecciones se presentaron 4 partidos
polticos: el POPO obtuvo un 40% de los votos, el JEJE el 30%, el MUMU el 20% y el
LALA el 10% restante. Cul es la probabilidad de que al elegir 5 ciudadanos al azar,
3 hayan votado al POPO, 1 al MUMU y 1 al LALA?
La distribucin multinomial sigue el siguiente modelo:
Donde:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
72/90
X1 = x1: indica que el suceso X1 aparezca x1 veces (en el ejemplo, que el partido
POPO lo hayan votado 3 personas)
n: indica el nmero de veces que se ha repetido el suceso (en el ejemplo, 5 veces)
n!: es factorial de n (en el ejemplo: 5 * 4 * 3 * 2 * 1)
p1: es la probabilidad del suceso X1 (en el ejemplo, el 40%)
Veamos el ejemplo:
Luego:
P = 0,0256
Es decir, que la probabilidad de que las 5 personas elegidas hayan votado de esta manera es tan slo
del 2,56%
Nota: 0! es igual a 1, y cualquier nmero elevado a 0 es tambin igual a 1
En una fiesta, el 20% de los asistentes son espaoles, el 30% franceses, el 40% italiano y el 10%
portugueses. En un pequeo grupo se han reunido 4 invitados: cual es la probabilidad de que 2 sean
espaoles y 2 italianos?
Aplicamos el modelo:
Luego
P = 0,0384
Por lo tanto, la probabilidad de que el grupo est formado por personas de estos pases es tan slo
del 3,84%.
Distribuciones discretas: Multihipergeomtrica
La distribucin multihipergeomtrica es similar a la distribucin hipergeomtrica, con la diferencia
de que en la urna, en lugar de haber nicamente bolas de dos colores, hay bolas de diferentes
colores.
Ejemplo: en una urna hay 7 bolas blancas, 3 verdes y 4 amarillas: cul es la probabilidad de que al
extraer 3 bolas sea cada una de un color distinto?
La distribucin multihipergeomtrica sigue el siguiente modelo:
Donde:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
73/90
X1 = x1: indica que el suceso X1 aparezca x1 veces (en el ejemplo, que una de las
bolas sea blanca)
N1: indica el nmero de bolas blancas que hay en la urna (en el ejemplo, 7 bolas)
N: es el nmero total de bolas en la urna (en el ejemplo, 14 bolas)
n: es el nmero total de bolas que se extraen (en el ejemplo, 3 bolas)
Veamos el ejemplo:
Luego:
P = 0,2307
Es decir, que la probabilidad de sacar una bola de cada color es del 23,07%.
En una caja de lpices hay 10 de color amarillo 3 de color azul y 4 de color rojo. Se extraen 7 lpices,
cual es la probabilidad de que 5 sean amarillos y 2 rojos?
Aplicamos el modelo:
Luego
P = 0,0777
Por lo tanto, la probabilidad de que los 5 lpices sean de los colores indicados es del 7,77%.
Distribuciones Continuas
Distribucin Uniforme
La distribucin uniforme es aquella que puede tomar cualquier valor dentro de un intervalo, todos
ellos con la misma probabilidad.
Es una distribucin continua porque puede tomar cualquier valor y no nicamente un nmero
determinado (como ocurre en las distribuciones discretas).
Ejemplo: el precio medio del litro de gasolina durante el prximo ao se estima que puede oscilar
entre 140 y 160 Bolivianos. Podra ser, por tanto, de 143 Bolivianos., o de 143,4 Bolivianos., o de
143,45 Bolivianos., o de 143,455 Bolivianos, etc. Hay infinitas posibilidades, todas ellas con la misma
probabilidad.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
74/90
La funcin de densidad, es aquella que nos permite conocer la probabilidad que tiene cada punto
del intervalo; viene definida por:
Funcin de densidad y de distribucin
[ ]
( )
12
) (
2
resto 0
1
) (
2
a b
X V
a b
X E
b x a
a b X f
=
+
=
=
Donde:
b: es el extremo superior (en el ejemplo, 160 Bolivianos.)
a: es el extremo inferior (en el ejemplo, 140 Bolivianos.)
Por lo tanto, la funcin de distribucin del ejemplo sera:
Es decir, que el valor final est entre 140 Bolivianos. y 141 Bolivianos. tiene un 5% de probabilidad,
que est entre 141 y 142, otro 5%, etc.
El valor medio de esta distribucin se calcula:
En el ejemplo:
Por lo tanto, el precio medio esperado de la gasolina para el prximo ao es de 150 Bolivianos.
Veamos otro ejemplo:
El volumen de precipitaciones estimado para el prximo ao en la ciudad de Sevilla va a oscilar entre
400 y 500 litros por metro cuadrado. Calcular la funcin de distribucin y la precipitacin media
esperada:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
75/90
Es decir, que el volumen de precipitaciones est entre 400 y 401 litros tiene un 1% de probabilidades;
que est entre 401 y 402 litros, otro 1%, etc.
El valor medio esperado es:
Es decir, la precipitacin media estimada en Sevilla para el prximo ao es de 450 litros.
Distribucin Exponencial
La distribucin exponencial es el equivalente continuo de la distribucin geomtrica discreta. Esta ley
de distribucin describe procesos en los que:
Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,
el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un
instante t
f
, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada.
Ejemplos de este tipo de distribuciones son:
El tiempo que tarda una partcula radiactiva en desintegrarse. El conocimiento de la ley que
este evento se utiliza en Ciencia para, por ejemplo, la datacin de fsiles o cualquier materia
orgnica mediante la tcnica del carbono 14, C
14
;
El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente;
En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de
tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos sucesos consecutivos
sigue un modelo probabilstico exponencial. Por ejemplo, el tiempo que transcurre entre que
sufrimos dos veces una herida importante.
Concretando, si una variable aleatoria continua X distribuida a lo largo de , es tal que su funcin
de densidad es
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
76/90
Un clculo inmediato nos dice que si x>0,
luego la funcin de distribucin es:
Para calcular el valor esperado y la varianza de la distribucin exponencial, obtenemos en primer
lugar la funcin caracterstica
para despus, derivando por primera vez
y derivando por segunda vez,
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
77/90
Entonces la varianza vale
En un experimento de laboratorio se utilizan 10 gramos de . Sabiendo que la duracin media
de un tomo de esta materia es de 140 das, cuantos idas transcurrirn hasta que haya
desaparecido el 90%de este material?
Solucin: El tiempo T de desintegracin de un tomo de es una variable aleatoria. de
distribucin exponencial:
Como el nmero de tomos de existentes en una muestra de 10 gramos es enorme, el
histograma de frecuencias relativas formado por los tiempos de desintegracin de cada uno de estos
tomos debe ser extremadamente aproximado a la curva de densidad, f. Del mismo modo, el
polgono de frecuencias relativas acumuladas debe ser muy aproximado a la curva de su funcin de
distribucin F. Entonces el tiempo que transcurre hasta que el del material radiactivo se
desintegra es el percentil 90, t
90
, de la distribucin exponencial, es decir
Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una distribucin
exponencial con media de 16 aos. Cul es la probabilidad de que a una persona a la que se le ha
implantado este marcapasos se le deba reimplantar otro antes de 20 aos? Si el marcapasos lleva
funcionando correctamente 5 aos en un paciente, cul es la probabilidad de que haya que
cambiarlo antes de aos?
Solucin: Sea T la variable aleatoria que mide la duracin de un marcapasos en una persona.
Tenemos que
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
78/90
Entonces
En segundo lugar
Luego como era de esperar, por ser propio a un mecanismo exponencial
o sea, en la duracin que se espera que tenga el objeto, no influye en nada el tiempo que en la
actualidad lleva funcionando. Es por ello que se dice que ``la distribucin exponencial no
tiene memoria".
Distribucin de Weibull
Desde hace algunos aos la distribucin Weibull ha sobresalido dentro de la familia de distribuciones
para anlisis de fallas. Su aplicabilidad a diferentes situaciones de falla fue presentada por Weibull en
1951. Se utiliz para describir fallas en rodamientos (Lieblein y Zelen, 1956).
Considerando que la distribucin exponencial est limitada, debido a que hace la suposicin de una
tasa de falla o funcin de riesgo constante, la distribucin de Weibull puede ser definida para incluir una
tasa de falla o tasa de riesgo creciente o decreciente. Ya que la mayor cantidad de fallas en campo,
especialmente las partes mecnicas, muestran un aumento en la tasa de falla (debido a desgaste o
deterioro del material), la distribucin de Weibull es muy til en describir patrones de falla de este tipo.
A continuacin se muestran curvas de diferentes tasas de falla (Hazard rate) o funcin de riesgo
La tasa de falla o funcin de riesgo para la distribucin Weibull se define como
Donde:
es el parmetro de forma de la distribucin.
0 es el parmetro de escala o vida caracterstica.
es el parmetro de localizacin.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
79/90
La funcin de la densidad de probabilidad de la distribucin Weibull para tres
parmetros es:
Esta se puede representar con slo dos parmetros (, ). La diferencia en las dos
distribuciones es el parmetro de localizacin, , el cual recorre la distribucin a lo
largo del eje x. Por definicin, hay cero probabilidad de falla para x < . Esto
implicara valores negativos en el parmetro de localizacin, lo cual significara que
los elementos fallan antes de la prueba.
Para el caso de = 0, = 1 y el parmetro de forma, , con diferentes valores la
funcin de distribucin se ilustra en la siguiente figura.
La distribucin de Weibull es utilizada extensamente en aplicaciones de confiabilidad
para modelar los tiempos a la falla obtenindose resultados adecuados de la
confiabilidad.
La funcin acumulativa de la distribucin para la distribucin Weibull quedara de la
siguiente manera
y a funcin de confiabilidad sera
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
80/90
Distribucin Normal
La distribucin normal fue reconocida por primera vez por el francs Abraham de Moivre (1667-
1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elabor desarrollos ms profundos y
formul la ecuacin de la curva; de ah que tambin se la conozca, ms comnmente, como la
"campana de Gauss". La distribucin de una variable normal est completamente determinada por
dos parmetros, su media y su desviacin estndar, denotadas generalmente por y o. Con esta
notacin, la densidad de la normal viene dada por la ecuacin:
|
.
|
\
|
= x
x
x f
2
2
1
exp
2
1
) (
que determina la curva en forma de campana que tan bien conocemos. As, se dice que una
caracterstica X sigue una distribucin normal de media y varianza o
2
, y se denota como X (, o
2
)
si su funcin de densidad viene dada por la Ecuacin descrita anteriormente.
Al igual que ocurra con un histograma, en el que el rea de cada rectngulo es proporcional al
nmero de datos en el rango de valores correspondiente si, en el eje horizontal se levantan
perpendiculares en dos puntos a y b, el rea bajo la curva delimitada por esas lneas indica la
probabilidad de que la variable de inters, X, tome un valor cualquiera en ese intervalo. Puesto que
la curva alcanza su mayor altura en torno a la media, mientras que sus "ramas" se extienden
asintticamente hacia los ejes, cuando una variable siga una distribucin normal, ser mucho ms
probable observar un dato cercano al valor medio que uno que se encuentre muy alejado de ste.
Propiedades de la distribucin normal:
La distribucin normal posee ciertas propiedades importantes que conviene destacar:
i. Tiene una nica moda, que coincide con su media y su mediana.
ii. La curva normal es asinttica al eje de abscisas. Por ello, cualquier valor entre - y
+ es tericamente posible. El rea total bajo la curva es, por tanto, igual a 1.
iii. Es simtrica con respecto a su media . Segn esto, para este tipo de variables
existe una probabilidad de un 50% de observar un dato mayor que la media, y un
50% de observar un dato menor.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
81/90
iv. La distancia entre la lnea trazada en la media y el punto de inflexin de la curva es
igual a una desviacin tpica (o). Cuanto mayor sea o, ms aplanada ser la curva
de la densidad.
v. El rea bajo la curva comprendido entre los valores situados aproximadamente a dos
desviaciones estndar de la media es igual a 0.95. En concreto, existe un 95% de
posibilidades de observar un valor comprendido en el intervalo { 1.96o, +1.96o }.
vi. La forma de la campana de Gauss depende de los parmetros y o. La media
indica la posicin de la campana, de modo que para diferentes valores de la grfica
es desplazada a lo largo del eje horizontal. Por otra parte, la desviacin estndar
determina el grado de apuntamiento de la curva. Cuanto mayor sea el valor de o,
ms se dispersarn los datos en torno a la media y la curva ser ms plana. Un
valor pequeo de este parmetro indica, por tanto, una gran probabilidad de obtener
datos cercanos al valor medio de la distribucin.
Como se deduce de este ltimo apartado, no existe una nica distribucin normal, sino una familia de
distribuciones con una forma comn, diferenciadas por los valores de su media y su varianza. De
entre todas ellas, la ms utilizada es la distribucin normal estndar, que corresponde a una
distribucin de media 0 y varianza 1. As, la expresin que define su densidad resulta ser:
)
`
= Z
Z
x f
2
exp
2
1
) (
2
Es importante conocer que, a partir de cualquier variable X que siga una distribucin N(,o), se
puede obtener otra caracterstica Z con una distribucin normal estndar, sin ms que efectuar la
transformacin:
=
X
z
Esta propiedad resulta especialmente interesante en la prctica, ya que para una distribucin N(0,1)
existen tablas publicadas a partir de las que se puede obtener de modo sencillo la probabilidad de
observar un dato menor o igual a un cierto valor z, y que permitirn resolver preguntas de
probabilidad acerca del comportamiento de variables de las que se sabe o se asume que siguen una
distribucin aproximadamente normal.
Consideremos, por ejemplo, el siguiente problema: supongamos que se sabe que el peso de los
sujetos de una determinada poblacin sigue una distribucin aproximadamente normal, con una
media de 80 Kg y una desviacin estndar de 10 Kg. Podremos saber cul es la probabilidad de
que una persona, elegida al azar, tenga un peso superior a 100 Kg?
Denotando por X a la variable que representa el peso de los individuos en esa poblacin, sta sigue
una distribucin N(80,10). Si su distribucin fuese la de una normal estndar podramos utilizar Una
tabla de distribucin normal para calcular la probabilidad que nos interesa que unid a la utilizacin de
la ecuacin de transformacin:
10
80
=
X
z
para poder utilizar dicha tabla. As, la probabilidad que se desea calcular ser:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
82/90
) 2 (
10
80 100
) 100 ( > = |
.
|
\
|
> = > Z P Z P x P
Como el rea total bajo la curva es igual a 1, se puede deducir que:
) 2 ( 1 ) 2 ( = > Z P Z P
Esta ltima probabilidad puede ser fcilmente obtenida a partir de la tabla de distribucin normal,
resultando ser P(Z>2) = 0.9772. Por lo tanto, la probabilidad buscada de que una persona elegida
aleatoriamente de esa poblacin tenga un peso mayor de 100 Kg , es de 10.9772=0.0228, es decir,
aproximadamente de un 2.3%.
Ejemplo: queremos conocer la probabilidad acumulada en el valor 2,75.Entonces buscamos en la
columna de la izquierda el valor 2,7 y en la primera fila el valor 0,05. La casilla en la que se
interseccionan es su probabilidad acumulada (0,99702, es decir 99.7%).
Atencin: la tabla nos da la probabilidad acumulada, es decir, la que va desde el inicio de la curva
por la izquierda hasta dicho valor. No nos da la probabilidad concreta en ese punto. En una
distribucin continua en el que la variable puede tomar infinitos valores, la probabilidad en un punto
concreto es prcticamente despreciable.
Ejemplo: Imaginemos que una variable continua puede tomar valores entre 0 y 5. La probabilidad de
que tome exactamente el valor 2 es despreciable, ya que podra tomar infinitos valores: por ejemplo:
1,99, 1,994, 1,9967, 1,9998, 1999791, etc.
Veamos otros ejemplos:
Probabilidad acumulada en el valor 0,67: la respuesta es 0,7486
Probabilidad acumulada en el valor 1,35: la respuesta es 0,9115
Probabilidad acumulada en el valor 2,19: la respuesta es 0,98574
Veamos ahora, como podemos utilizar esta tabla con una distribucin normal:
Ejemplo: el salario medio de los empleados de una empresa se distribuye segn una distribucin
normal, con media 5 millones de Bolivianos. y desviacin tpica 1 milln de Bolivianos. Calcular el
porcentaje de empleados con un sueldo inferior a 7 millones de Bolivianos.
Lo primero que haremos es transformar esa distribucin en una normal tipificada, para ello se crea una
nueva variable (Y) que ser igual a la anterior (X) menos su media y dividida por la desviacin tpica
En el ejemplo, la nueva variable sera:
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
83/90
Esta nueva variable se distribuye como una normal tipificada. La variable Y que corresponde
a una variable X de valor 7 es:
Ya podemos consultar en la tabla la probabilidad acumulada para el valor 2 (equivalente a la
probabilidad de sueldos inferiores a 7 millones de bolivianos.). Esta probabilidad es 0,97725
Por lo tanto, el porcentaje de empleados con salarios inferiores a 7 millones de Bolivianos. es
del 97,725%.
Ejercicio 1: La renta media de los habitantes de un pas es de 4 millones de Bolivianos/ao, con
una varianza de 1,5. Se supone que se distribuye segn una distribucin normal. Calcular:
a) Porcentaje de la poblacin con una renta inferior a 3 millones de Bolivianos.
b) Renta a partir de la cual se sita el 10% de la poblacin con mayores ingresos.
c) Ingresos mnimo y mximo que engloba al 60% de la poblacin con renta media.
a) Porcentaje de la poblacin con una renta inferior a 3 millones de Bolivianos.
Lo primero que tenemos que hacer es calcular la normal tipificada:
(*) Recordemos que el denominador es la desviacin tpica ( raz cuadrada de la
varianza)
El valor de Y equivalente a 3 millones de Bolivianos es -0,816.
P (X < 3) = P (Y < -0,816)
Ahora tenemos que ver cul es la probabilidad acumulada hasta ese valor. Tenemos un problema: la
tabla de probabilidades (ver leccin 35) slo abarca valores positivos, no obstante, este problema tiene
fcil solucin, ya que la distribucin normal es simtrica respecto al valor medio.
Por lo tanto:
P (Y < -0,816) = P (Y > 0,816)
Por otra parte, la probabilidad que hay a partir de un valor es igual a 1 (100%) menos la probabilidad
acumulada hasta dicho valor:
P (Y > 0,816) = 1 - P (Y < 0,816) = 1 - 0,7925 (aprox.) = 0,2075
Luego, el 20,75% de la poblacin tiene una renta inferior a 3 millones Bolivianos.
b) Nivel de ingresos a partir del cual se sita el 10% de la poblacin con renta ms elevada.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
84/90
Vemos en la tabla el valor de la variable tipificada cuya probabilidad acumulada es el 0,9 (90%), lo
que quiere decir que por encima se sita el 10% superior.
Ese valor corresponde a Y = 1,282 (aprox.). Ahora calculamos la variable normal X equivalente a ese
valor de la normal tipificada:
Despejando X, su valor es 5,57. Por lo tanto, aquellas personas con ingresos superiores a 5,57
millones de Bolivianos. constituyen el 10% de la poblacin con renta ms elevada.
c) Nivel de ingresos mnimo y mximo que engloba al 60% de la poblacin con renta media
Vemos en la tabla el valor de la variable normalizada Y cuya probabilidad acumulada es el 0,8 (80%).
Como sabemos que hasta la media la probabilidad acumulada es del 50%, quiere decir que entre la
media y este valor de Y hay un 30% de probabilidad.
Por otra parte, al ser la distribucin normal simtrica, entre -Y y la media hay otro 30% de
probabilidad. En definitiva, el segmento (-Y, Y) engloba al 60% de poblacin con renta media.
El valor de Y que acumula el 80% de la probabilidad es 0,842 (aprox.), por lo que el segmento viene
definido por (-0,842, +0,842). Ahora calculamos los valores de la variable X correspondientes a estos
valores de Y.
Los valores de X son 2,97 y 5,03. Por lo tanto, las personas con ingresos superiores a 2,97 millones
de Bolivianos. e inferiores a 5,03 millones de Bolivianos. constituyen el 60% de la poblacin con un
nivel medio de renta.
Ejercicio 2: La vida media de los habitantes de un pas es de 68 aos, con una varianza de 25. Se
hace un estudio en una pequea ciudad de 10.000 habitantes:
a) Cuntas personas superarn previsiblemente los 75 aos?
b) Cuntos vivirn menos de 60 aos?
a) Personas que vivirn (previsiblemente) ms de 75 aos
Calculamos el valor de la normal tipificada equivalente a 75 aos
Por lo tanto
P (X > 75) = (Y > 1,4) = 1 - P (Y < 1,4) = 1 - 0,9192 = 0,0808
Luego, el 8,08% de la poblacin (808 habitantes) vivirn ms de 75 aos.
b) Personas que vivirn (previsiblemente) menos de 60 aos
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
85/90
Calculamos el valor de la normal tipificada equivalente a 60 aos
Por lo tanto
P (X < 60) = (Y < -1,6) = P (Y > 1,6) = 1 - P (Y < 1,6) = 0,0548
Luego, el 5,48% de la poblacin (548 habitantes) no llegarn probablemente a esta
edad.
Ejercicio 3: El consumo medio anual de cerveza de los habitantes de una pas es de 59 litros, con
una varianza de 36. Se supone que se distribuye segn una distribucin normal.
a) Si usted presume de buen bebedor, cuntos litros de cerveza tendra que beber al ao para
pertenecer al 5% de la poblacin que ms bebe?.
b) Si usted bebe 45 litros de cerveza al ao y su mujer le califica de borracho qu podra
argumentar en su defensa?
a) 5% de la poblacin que ms bebe.
Vemos en la tabla el valor de la variable tipificada cuya probabilidad acumulada es el 0,95 (95%), por
lo que por arriba estara el 5% restante.
Ese valor corresponde a Y = 1,645 (aprox.). Ahora calculamos la variable normal X equivalente a ese
valor de la normal tipificada:
Despejando X, su valor es 67,87. Por lo tanto, tendra usted que beber ms de 67,87 litros al ao
para pertenecer a ese "selecto" club de grandes bebedores de cerveza.
a) Usted bebe 45 litros de cerveza al ao. Tiene problemas de alcoholismo?
Vamos a ver en que nivel de la poblacin se situara usted en funcin de los litros de cerveza
consumidos.
Calculamos el valor de la normal tipificada correspondiente a 45 litros:
Por lo tanto
P (X < 45) = (Y < -2,2) = P (Y > 2,2) = 1 - P (Y < 2,2) = 0,0139
Luego, tan slo un 1,39% de la poblacin bebe menos que usted. Parece un argumento de suficiente
peso para que dejen de catalogarle de "enamorado de la bebida"
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
86/90
Ejercicio 4: A un examen de oposicin se han presentado 2.000 aspirantes. La nota media ha sido
un 5,5, con una varianza de 1,5.
a) Tan slo hay 100 plazas. Usted ha obtenido un 7,7. Sera oportuno ir organizando una fiesta para
celebrar su xito?
b) Va a haber una 2 oportunidad para el 20% de notas ms altas que no se hayan clasificados. A
partir de que nota se podr participar en esta "repesca"?
a) Ha obtenido usted un 7,7
Vamos a ver con ese 7,7 en que nivel porcentual se ha situado usted, para ello vamos a comenzar
por calcular el valor de la normal tipificada equivalente.
A este valor de Y le corresponde una probabilidad acumulada (ver tablas) de 0,98214 (98,214%), lo
que quiere decir que por encima de usted tan slo se encuentra un 1,786%.
Si se han presentado 2.000 aspirante, ese 1,786% equivale a unos 36 aspirantes. Por lo que si hay
100 plazas disponibles, tiene usted suficientes probabilidades como para ir organizando la "mejor de
las fiestas".
b) "Repesca" para el 20% de los candidatos
Vemos en la tabla el valor de la normal tipificada que acumula el 80% de la probabilidad, ya que por
arriba slo quedara el 20% restante.
Este valor de Y corresponde a 0,842 (aprox.). Ahora calculamos el valor de la normal X equivalente:
Despejamos la X y su valor es 6,38. Por lo tanto, esta es la nota a partir de la cual se podr acudir a
la "repesca".
Teorema del Lmite Central
El Teorema Central del Lmite dice que si tenemos un grupo numeroso de variables independientes
y todas ellas siguen el mismo modelo de distribucin (cualquiera que ste sea), la suma de ellas se
distribuye segn una distribucin normal.
a) La media de los datos, es la media m de la poblacin , es decir la media de las medias de las
muestras, es igual que la media de la poblacin.
b) Estas medias se distribuyen alrededor de la media de la poblacin, con una desviacin tpica
(llamada desviacin tpica de la media, ) igual a la de la poblacin dividida por la raz de n, es
decir, la d.t. de la media es
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
87/90
c) La distribucin de las medias muestrales, es una distribucin de tipo "normal", siempre que la
poblacin de procedencia lo sea, o incluso si no lo es, siempre que el tamao de las muestras
sea 30 o mayor.
d) En consecuencia, "si una poblacin tiene media m y desviacin estndar s , y tomamos
muestras de tamao n ( de tamao al menos 30, o cualquier tamao, si la poblacin es
"normal"), las medias de estas muestras siguen aproximadamente la distribucin
Adems, cuanto mayor es el valor de n, mejor es la aproximacin "normal".
Hemos nombrado un concepto importante: la desviacin estndar de la media , que es el grado
de variabilidad de las medias muestrales. Cuanto menor sea, ms ajustadas a la media de la
poblacin sern las medias que obtengamos de una muestra. De su propia definicin, es fcil darse
cuenta de que cuanto mayor es el tamao de la muestra, menor es este grado de variabilidad, y por
tanto ms similar a la media de la poblacin ser la media obtenida de la muestra.
La afirmacin de que la desviacin tpica de la media es
se hace asumiendo que la poblacin es infinita ( o el muestreo se realiza con reemplazamiento ). En
caso contrario, se debe utilizar el "factor de correccin para poblaciones finitas", de forma que la d.t.
de la media quedara:
donde N es el tamao de la poblacin y n el de la muestra.
En la prctica y como regla general, se usa el coeficiente anterior tan slo cuando el tamao de una
muestra es superior al 5% de la poblacin. Nosotros no tendremos en cuenta este factor, pues no se
resta profundidad a los conceptos estudiados al tiempo que se simplifica su estudio.
Adems estudiaremos tan slo el caso correspondiente a muestras de ms de 30 elementos.
llamadas "muestras grandes". Para muestras de menor tamao, se han de utilizar distribuciones
distintas de la Normal, y est fuera del alcance de este curso.
Habremos de suponer que conocemos la desviacin tpica de la poblacin (<>s<>), (aunque resulta
improbable conocerla y desconocer la media), o bien al menos la desviacin tpica muestral (s)
(tambin llamada cuasivarianza, que resulta ser una buena aproximacin de la desviacin tpica de
la poblacin para muestras grandes).
Este ltimo parmetro se define como
donde es la media de la muestra. Es decir es la desviacin tpica de la muestra corregida
dividiendo por n-1 en lugar de por n . Al hacer esto, el valor de s aumentar. Se trata pues de hacer
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
88/90
una sobreestimacin de la desviacin tpica, para compensar el error cometido al tomar una muestra.
En las calculadoras que utilizamos se obtiene pulsando .
Ejemplo: la variable "tirar una moneda al aire" sigue la distribucin de Bernouilli. Si lanzamos la
moneda al aire 50 veces, la suma de estas 50 variables (cada una independiente entre si) se
distribuye segn una distribucin normal.
Este teorema se aplica tanto a suma de variables discretas como de variables continuas. Los
parmetros de la distribucin normal son:
Media: n * m (media de la variable individual multiplicada por el nmero de variables independientes)
Varianza: n * s2 (varianza de la variable individual multiplicada por el nmero de
variables individuales)
Veamos un ejemplo:
Se lanza una moneda al aire 100 veces, si sale cara le damos el valor 1 y si sale cruz el valor 0.
Cada lanzamiento es una variable independiente que se distribuye segn el modelo de Bernouilli, con
media 0,5 y varianza 0,25.
Calcular la probabilidad de que en estos 100 lanzamientos salgan ms de 60 caras.
La variable suma de estas 100 variables independientes se distribuye, por tanto, segn una
distribucin normal.
Media = 100 * 0,5 = 50
Varianza = 100 * 0,25 = 25
Para ver la probabilidad de que salgan ms de 60 caras calculamos la variable normal tipificada
equivalente:
(*) 5 es la raiz cuadrada de 25, o sea la desviacin tpica de esta distribucin Por lo tanto:
P (X > 60) = P (Y > 2,0) = 1- P (Y < 2,0) = 1 - 0,9772 = 0,0228
Es decir, la probabilidad de que al tirar 100 veces la moneda salgan ms de 60 caras es tan slo del
2,28%
Ejercicio 1.
La renta media de los habitantes de un pas se distribuye uniformemente entre 4,0 millones
Bolivianos. y 10,0 millones Bolivianos. Calcular la probabilidad de que al seleccionar al azar a 100
personas la suma de sus rentas supere los 725 millones Bolivianos.
Cada renta personal es una variable independiente que se ditribuye segn una funcin uniforme. Por
ello, a la suma de las rentas de 100 personas se le puede aplicar el Teorema Central del Lmite.
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
89/90
La media y varianza de cada variable individual es:
m = (4 + 10 ) / 2 = 7
s 2 = (10 - 4)^2 / 12 = 3
Por tanto, la suma de las 100 variables se distribuye segn una normal cuya media y varianza son:
Media: n * m = 100 * 7 = 700
Varianza: n * s2 = 100 * 3 = 300
Para calcular la probabilidad de que la suma de las rentas sea superior a 725 millones Bolivianos,
comenzamos por calcular el valor equivalente de la variable normal tipificada:
Luego:
P (X > 725) = P (Y > 1,44) = 1 - P (Y < 1,44) = 1 - 0,9251 = 0,0749
Es decir, la probabilidad de que la suma de las rentas de 100 personas seleccionadas al azar supere
los 725 millones de pesetas es tan slo del 7,49%
Ejercicio 2.
En una asignatura del colegio la probabilidad de que te saquen a la pizarra en cada clase es del 10%.
A lo largo del ao tienes 100 clases de esa asignatura. Cul es la probabilidad de tener que salir a la
pizarra ms de 15 veces?
Se vuelve a aplicar el Teorema Central del Lmite.
Salir a la pizarra es una variable independiente que sigue el modelo de distribucin de Bernouilli:
"Salir a la pizarra", le damos el valor 1 y tiene una probabilidad del 0,10
"No salir a la pizarra", le damos el valor 0 y tiene una probabilidad del 0,9
La media y la varianza de cada variable independientes es:
m = 0,10
s 2 = 0,10 * 0,90 = 0,09
Por tanto, la suma de las 100 variables se distribuye segn una normal cuya media y varianza son:
Media: n * m = 100 * 0,10 = 10
Varianza: n * s2 = 100 * 0,09 = 9
Para calcular la probabilidad de salir a la pizarra ms de 15 veces, calculamos el valor equivalente de
la variable normal tipificada:
Luego:
P (X > 15) = P (Y > 1,67) = 1 - P (Y < 1,67) = 1 - 0,9525 = 0,0475
UMSA Facultad de Ingeniera -Carrera de Ingeniera Mecnica
Manual de Probabilidad y Estadstica
90/90
Es decir, la probabilidad de tener que salir ms de 15 veces a la pizarra a lo largo del curso es tan
slo del 4,75% ( nimo !!!, no es tan grave)
Ejercicio 3.
Una compaa area sabe que el equipaje de sus pasajeros tiene como media 25 kg. con una d.t. de
6 kg. Si uno de sus aviones transporta a 50 pasajeros, el peso medio de los equipajes de dicho grupo
estar en la distribucin muestral de medias
La probabilidad de que el peso medio para estos pasajeros sea superior a 26 kg sera:
Si el avin no debe cargar ms de 1300 kg en sus bodegas, la media del conjunto de los 50 pasajeros
no debe superar los
En consecuencia en un 11,9% de los casos los aviones de esta compaa superan el margen de
seguridad.