Você está na página 1de 45

LA PROBABILIDAD

1. Introduccin a la Probabilidad. Definiciones


de la Probabilidad:frecuentista, regla de Laplace y axiomtica (de Kolmogorov). Axiomas de la Probabilidad.

2. Propiedades y Teoremas de Probabilidad. 3. Sucesos independientes. 4. Probabilidad Condicionada. Independencia de sucesos. 5. La Regla de la Multiplicacin 6. Teorema de la Probabilidad Total. 7. Teorema de Bayes

1. INTRODUCCIN A LA PROBABILIDAD
LA FRECUENCIA RELATIVA Si se repite n veces un experimento aleatorio cuyo espacio muestral es , y el suceso A se verifica nA veces, se dice que nA es la Frecuencia Absoluta de A. La Frecuencia Relativa de A es el cociente entre la frecuencia absoluta de A y el nmero total de pruebas o repeticiones del experimento aleatorio, es decir,

f r ( A) =

nA n

Las Frecuencias Relativas varan con el nmero de pruebas o repeticiones. La observacin de numerosos experimentos aleatorios aumentando el nmero de pruebas condujo al siguiente resultado: Ley del Azar o Ley de Estabilidad de las Frecuencias

1. INTRODUCCIN A LA PROBABILIDAD
LA FRECUENCIA RELATIVA Ley del Azar o Ley de Estabilidad de las Frecuencias: Supongamos que un determinado experimento aleatorio se repite indefinidamente y consideremos un suceso asociado al experimento. La frecuencia relativa del suceso tiende a estabilizarse a medida que aumenta el nmero de repeticiones del experimento, es decir, se estabiliza para valores grandes de n. Esto significa que los fenmenos aleatorios presentan regularidades estadsticas cuando se repiten un nmero elevado de veces.

1. INTRODUCCIN A LA PROBABILIDAD
DEFINICIN FRECUENTISTA

1. INTRODUCCIN A LA PROBABILIDAD
LA FRECUENCIA RELATIVA: REGLA DE LAPLACE Admitiendo como hiptesis Ley del Azar o Ley de Estabilidad de las Frecuencias, Von Mises dio la primera definicin de probabilidad:

nA p( A) = lim f r ( A) = lim n n n
Esta definicin no es til en la prctica. Fue Laplace en un intento de aplicacin de la probabilidad a las ciencias naturales y sociales, quien formul la 1 regla prctica para el clculo de probabilidades de sucesos y que se conoce como Regla de Laplace

1. INTRODUCCIN A LA PROBABILIDAD
DEFINICIN CLSICA: REGLA DE LAPLACE

1. INTRODUCCIN A LA PROBABILIDAD
DEFINICIN CLSICA: REGLA DE LAPLACE La Regla de Laplace, es decir, la definicin de probabilidad de un suceso como cociente entre casos favorables y casos posibles es pobre ya que no se puede aplicar en espacios muestrales discretos infinito-numerables ni en espacios continuos. En los espacios continuos la probabilidad puntual es siempre cero, pues por muy pequea que fuera la probabilidad asignada a un punto sera imposible respetar que la probabilidad del espacio muestral sea la unidad. Por ello, es fundamental la axiomtica de la probabilidad debida a Kolmogorov, que lo recoge todo.

1. INTRODUCCIN A LA PROBABILIDAD
AXIOMAS DE LA PROBABILIDA (KOLMOGOROV, 1933) 1. SEA EL ESPACIO MUESTRAL DE UN EXPERIMENTO ALEATORIO. ENTONCES

p () = 1

2. PARA TODO SUCESO A,

p( A) 0

Este axioma afirma que la probabilidad nunca puede ser negativa. 3. SEA A1, A2, A3,UN CONJUNTO FINITO O INFINITO DE SUCESOS MUTUAMENTE EXCLUYENTES. ENTONCES

p( A ....) = p( A 1oA 2 oA 3o 1 A 2 A 3 ....) = p(A 1) + p(A 2 ) + p(A 3) +...

1. INTRODUCCIN A LA PROBABILIDAD
AXIOMAS DE LA PROBABILIDA (KOLMOGOROV, 1933) El AXIOMA 3 GARANTIZA QUE CUANDO SE TIENE UNA SERIE DE Ai A j = i j SUCESOS MUTUAMENTE EXCLUYENTES ( ), LA PROBABILIDAD DE QUE OCURRA UNO U OTRO DE LOS SUCESOS PUEDE CALCULARSE SUMANDO LAS PROBABILIDADES INDIVIDUALES.

ESTE AXIOMA 3 ES ESPECIALMENTE IMPORTANTE PORQUE NOS PROPORCIONA LA CAPACIDAD DE CALCULAR LA PROBABILIDAD DE UN SUCESO CUANDO LOS ELEMENTOS DEL ESPACIO MUESTRAL DEL EXPERIMENTO NO SON EQUIPROBABLES.

1. INTRODUCCIN A LA PROBABILIDAD
DEFINICIN AXIOMTICA DE LA PROBABILIDAD (KOLMOGOROV) SEA (, a) UN ESPACIO PROBABILIZABLE. UNA PROBABILIDAD DEFINIDA EN EL ESPACIO DE SUCESOS a ES UNA FUNCIN: p:a QUE VERIFICA: 1.2.p () = 1

[0, 1]

A espacio sucesos,

p( A) 0

3.- Si A1, A2, A3, a DE SUCESOS MUTUAMENTE EXCLUYENTES ( Ai Aj = i j ) ENTONCES

p ( Ai ) = p( Ai )
i =1 i =1

CONCLUSIN : (, a, P) SER ESPACIO DE PROBABILIDAD

2.

AXIOMAS Y TEOREMAS DE LA PROBABILIDAD

2.

AXIOMAS Y TEOREMAS DE LA PROBABILIDAD

RESUMEN PRCTICO
Se llama Probabilidad a cualquier funcin, p, que asigna a cada suceso A un valor numrico p(A), verificando las siguientes reglas (axiomas):

1.- 0p(A) 1 2.- p()=1 3.- P(AUB)=P(A)+P(B) si AB=


es el conjunto vaco.

2.

AXIOMAS Y TEOREMAS DE LA PROBABILIDAD

2.1 REGLA GENERAL DE LA ADICIN SEAN LOS SUCESOS A1 Y A2. ENTONCES

p( A 1oA 2 ) = p( A 1 A 2 ) = p(A 1) + p(A 2 ) p(A 1 A 2)


Su objetivo es permitir el manejo del caso ms general, es decir, calcular la probabilidad de que ocurra al menos uno de dos sucesos que no son mutuamente excluyentes necesariamente. La palabra clave para saber si se puede aplicar en un problema esta regla general de la adicin es: O. Casi con todo seguridad, si en un problema de probabilidad aparece la palabra o, la adicin est casi siempre involucrada. Como se ver ms adelante, cuando aparezca la palabra Y ser un indicativo de que habrn de multiplicarse probabilidades.

4.

SUCESOS INDEPENDIENTES

4.1 SUCESOS INDEPENDIENTES EXISTEN, BSICAMENTE DOS RELACIONES ENTRE SUCESOS: SUCESOS MUTUAMENTE EXCLUYENTES. SUCESOS INDEPENDIENTES: Dos sucesos son independientes si uno puede producirse con independencia del otro; La realizacin o no realizacin de uno no tiene efecto alguno sobre la realizacin o no del otro.

DEFINICIN 1 SEAN A1 Y A2 DOS SUCESOS CUYAS PROBABILIDADES EXISTEN, CUMPLEN LA AXIOMTICA DE KOLMOGOROV. ESTOS SUCESOS SON INDEPENDIENTES SI Y SLO SI

p ( A1 y A2 ) = p ( A1 A2 ) = p ( A1 ). p( A2 )

4.

SUCESOS INDEPENDIENTES

4.1 SUCESOS INDEPENDIENTES CONSIDERACIONES a. Obsrvese que cuando los sucesos son independientes la probabilidad de que ambos ocurran simultneamente se obtiene por multiplicacin de las probabilidades de los sucesos. b. PALABRA CLAVE: Y, es la clave de que las probabilidades se deben multiplicar (si los sucesos son independientes). c. La definicin de independencia debe utilizarse con cuidado porque hay que estar seguro de que es razonable suponer que los sucesos son independientes antes de aplicar dicha definicin.

4.

SUCESOS INDEPENDIENTES

CONSIDERACIONES d. La idea de independencia puede extenderse a ms de 2 sucesos. Para 3 sucesos la definicin de independencia es la siguiente: Los 3 sucesos A1, A2 y A3 son independientes si y slo si:
1. p ( Ai Aj ) = p( Ai ). p( Aj ) i j

2. p ( A1 A2 A3 ) = p( A1 ). p( A2 ). p( A3 )

Para n sucesos la definicin de independencia puede ser generalizada imponiendo que no slo debe de cumplirse la ley multiplicativa para los n sucesos sino que adems debe de verificarse para cualquier subconjunto de ellos (cualquier subconjunto satisface la propiedad de que la probabilidad de la aparicin simultnea sea igual al producto de las probabilidades individuales de cada suceso).

4.

SUCESOS INDEPENDIENTES

CONSIDERACIONES NOTA IMPORTANTE: No se deben confundir los conceptos de Sucesos Incompatibles o Mtuamente Excluyentes y Sucesos Independientes. Dos sucesos son incompatibles cuando no tienen elementos en comn, es decir, A B = , o con diagramas de Venn:

Dos sucesos son independientes si p(AB) = p(A) p(B). Son conceptos totalmente distintos. Uno se refiere a CONJUNTOS y otro se refiere a PROBABILIDADES.

3.

PROBABILIDAD CONDICIONADA

3.1 PROBABILIDAD CONDICIONADA Su objetivo es determinar la probabilidad de que ocurra un suceso A2 condicionado por el hecho de que algn otro suceso A1 ya ha ocurrido.
Hasta ahora se supona que toda la informacin antes de la prueba de un experimento aleatorio, estaba contenida en el espacio muestral, y a partir de aqu, se calculaba la probabilidad de un suceso, A2. Ahora se supone que tenemos una informacin adicional: la ocurrencia de otro suceso (no vaco) A1. Se trata de ver cmo esta informacin adicional puede modificar la probabilidad de la ocurrencia del primer suceso A2. La

informacin adicional o ocurrencia de otro suceso realiza una restriccin del espacio muestral . La notacin es:

p ( A2 | A1 )

Para designar la probabilidad del suceso A2 condicionada por el hecho de que haya sucedido previamente el suceso A1. La barra vertical se lee dado. Obsrvese que aunque intervienen 2 sucesos, slo se alude a una nica probabilidad porque el 2 suceso ya ha ocurrido.

3.

PROBABILIDAD CONDICIONADA

3.1 PROBABILIDAD CONDICIONADA SEAN LOS SUCESOS A1 Y A2 TALES QUE p(A1)0. LA PROBABILIDAD CONDICIONADA DE A2 DADO A1 SE DEFINE POR LA EXPRESIN SIGUIENTE:

p ( A1 A2 ) p ( A2 | A1 ) = p ( A1 )
probabilidad condicionada = p (ambos sucesos ) p ( suceso dado)

(*)

3.

PROBABILIDAD CONDICIONADA
espacio muestral

3.1 PROBABILIDAD CONDICIONADA

p ( A1 A2 ) p ( A2 | A1 ) = p ( A1 )
Error Muy Frecuente:

ao uno de res pec t otro o al

A2 A1

No confundis probabilidad condicionada con interseccin. En ambos medimos efectivamente la interseccin, pero
En p(A1A2) con respecto al espacio muestral (p()=1); En p(A2|A1) con respecto a los elementos del suceso A1 (p(A1))

tam

Intuir la probabilidad condicionada


A A

P(A) = 0,25 P(B) = 0,10 P(AB) = 0,10

P(A) = 0,25 P(B) = 0,10 P(AB) = 0,08

Probabilidad de A sabiendo que ha pasado B?

P(A|B)=1

P(A|B)=0,8

Intuir la probabilidad condicionada


A A

B B

P(A) = 0,25 P(B) = 0,10 P(AB) = 0,005

P(A) = 0,25 P(B) = 0,10 P(AB) = 0

Probabilidad de A sabiendo que ha pasado B?

P(A|B)=0,05

P(A|B)=0

4.

SUCESOS INDEPENDIENTES

4.1 SUCESOS INDEPENDIENTES EXISTEN, BSICAMENTE DOS RELACIONES ENTRE SUCESOS: SUCESOS MUTUAMENTE EXCLUYENTES. SUCESOS INDEPENDIENTES: Dos sucesos son independientes si uno puede producirse con independencia del otro; La realizacin o no realizacin de uno no tiene efecto alguno sobre la realizacin o no del otro.

DEFINICIN 2 SEAN A1 Y A2 DOS SUCESOS TALES QUE p(A1)0. ESTOS SUCESOS SON INDEPENDIENTES SI Y SLO SI

p ( A2 | A1 ) = p ( A2 )

4.

SUCESOS INDEPENDIENTES

4.1 SUCESOS INDEPENDIENTES LA ANTERIOR DEFINICIN ES LGICA Y FCIL DE ENTENDER, PERO NO ES LA QUE NORMALMENTE SE EMPLEA PARA AVERIGUAR SI DOS SUCESOS SON INDEPENDIENTES, SINO QUE SE SUELE EMPLEAR LA DEFINICIN 1 YA VISTA. DEFINICIN 1 SEAN A1 Y A2 DOS SUCESOS. ESTOS SUCESOS SON INDEPENDIENTES SI Y SLO SI

p ( A1 y A2 ) = p ( A1 A2 ) = p ( A1 ). p( A2 )

PROBABILIDAD CONDICIONADA E INDEPENDENCIA


EJEMPLO DE PROBABILIDAD CONDICIONADA

PROBABILIDAD CONDICIONADA E INDEPENDENCIA


EJEMPLO DE PROBABILIDAD CONDICIONADA

5.

LA REGLA DE LA MULTIPLICACIN
(TEOREMA DE LA PROBABILIDAD COMPUESTA)

SE PUEDE CALCULAR LA PROBABILIDAD p(A1 y A2)= p(A1 A2) SI LOS SUCESOS SON INDEPENDIENTES. SI LA INFORMACIN QUE SE TIENE ES ADECUADA TAMBIN PUEDE OBTENERSE ESTA PROBABILIDAD MEDIANTE LA REGLA GENERAL DE LA ADICIN. EXISTE ALGN PROCEDIMIENTO PARA HALLAR LA PROBABILIDAD DE QUE DOS SUCESOS SE PRODUZCAN SIMULTNEAMENTE, p(A1 A2), SI STOS NO SON INDEPENDIENTES? AL MARGEN DE QUE LOS SUCESOS SEAN O NO INDEPENDIENTES, SE TIENE QUE: p ( A1 A2 ) p ( A2 | A1 ) = p ( A1 )

p ( A1 A2 ) = p ( A2 | A1 ) . p ( A1 )

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES


A2

A1

Sistema exhaustivo y excluyente de sucesos (particin del espacio muestral


Son una coleccin de sucesos A1, A2, A3, A4

A3

A4

Tales que la unin de todos ellos forman el espacio muestral, y sus intersecciones son disjuntas (son el conjunto vaco).

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES


Divide y vencers
A2 Todo suceso B, puede ser descompuesto en componentes de dicho sistema. B B = (BA1) U (BA2 ) U ( BA3 ) U ( BA4 )

A1

A3

A4

Nos permite descomponer el problema B en subproblemas ms simples.

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES


A2

A1

Teorema de la Probabilidad Total


Si conocemos la probabilidad de B en cada uno de los componentes de un sistema exhaustivo y excluyente de sucesos, entonces podemos calcular la probabilidad de B.

A3

A4

p(B) = p(BA1) + p(BA2 ) + p( BA3 ) + p( BA4 ) =p(B|A1) p(A1) + p(B|A2) p(A2) + p(B|A3) p(A3) + p(B|A4) p(A4) =
=

p ( B A ) . p( A )
i =1 i i

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES

PARA CALCULAR LA PROBABILIDAD DE UN SUCESO, MUCHAS VECES ES TIL INCORPORAR INFORMACIN PREVIA O A PRIORI DE ESTE SUCESO EN RELACIN CON OTROS. LOS DOS TEOREMAS QUE SE PRESENTAN TRATAN DE INCORPORAR ESTA INFORMACIN. 6.1 TEOREMA DE LA PROBABILIDAD TOTAL SEA B UN SUCESO CUALQUIERA Y SEAN { Ai }i=1,2,,n UN CONJUNTO DE SUCESOS QUE VERIFICAN QUE:
1.

A =
i =1 i

p( A ) = 1
i =1 i

2. Ai Aj i j 3. p ( Ai ) 0 i = 1, 2,..., n

PARTICIN DEL ESPACIO MUESTRAL

ENTONCES SE CUMPLE QUE:


n

p( B) = p( Ai ). p( B | Ai )
i =1

6.
A1

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES


A2

Teorema de Bayes
Si conocemos la probabilidad de B en cada uno de los componentes de un sistema exhaustivo y excluyente de sucesos, entonces si ocurre B, podemos calcular la probabilidad (a posteriori) de ocurrencia de cada Ai.

A3

A4

P(Ai B) P(Ai|B) = P(B)

donde P(B) se puede calcular usando el teorema de la probabilidad total: p(B)=p(BA1) + p(BA2 ) + p( BA3 ) + p( BA4 ) =P(B|A1) P(A1) + P(B|A2) P(A2) + p(B|A3) p(A3) + p(B|A4) p(A4)

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES

6.1 TEOREMA DE BAYES SEA B UN SUCESO CUALQUIERA NO IMPOSIBLE TAL QUE p(B)0. SEAN { Ai }i=1,2,,n UN CONJUNTO DE SUCESOS QUE VERIFICAN QUE:
1.

A =
i =1 i

p( A ) = 1
i =1 i

2. Ai Aj i j 3. p( Ai ) 0 i = 1, 2,..., n

PARTICIN DEL ESPACIO MUESTRAL

ENTONCES, CUALQUIERA QUE SEA EL SUCESO Aj, j=1,2,3,,n SE CUMPLE QUE Y DADO QUE HA OCURRIDO EL SUCESO B:

p( Aj | B) =

p( Aj B) p(B)

p(B | Aj ). p( Aj )
n

p(B | A ). p( A )
i =1 i i

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES

ORGANIZACIN DE LA INFORMACIN: DIAGRAMAS DE RBOL UN EXPERIMENTO COMPUESTO ES AQUEL QUE CONSTA DE DOS O MS EXPERIMENTOS ALEATORIOS SIMPLES. ES DECIR, SI TIRAMOS UN DADO, O UNA MONEDA, SON EXPERIMENTOS ALEATORIOS SIMPLES, PERO SI REALIZAMOS EL EXPERIMENTO DE TIRAR UN DADO PRIMERO Y, POSTERIORMENTE, UNA MONEDA, ESTAMOS REALIZANDO UN EXPERIMENTO COMPUESTO.

LA FORMA MS SENCILLA DE ORGANIZAR LA INFORMACIN PARA CALCULAR PROBABILIDADES EN EXPERIMENTOS COMPUESTOS ES UN DIGRAMA DE RBOL, DONDE EN CADA TRAYECTORIA/RAMA SITUAMOS LA PROBABILIDAD QUE LE CORRESPONDE AL SUCESO DEL FINAL DE LA MISMA.

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES

DIAGRAMAS DE RBOL En un diagrama de rbol aparecen una serie de ramas que representan las alternativas interesantes con las correspondientes probabilidades. Segn se ramifica el rbol y aparecen ms ramas, se generan una serie de trayectorias. Cada trayectoria completa representa la realizacin simultnea de varios sucesos diferentes, es decir, representan intersecciones de sucesos. Suponiendo que los sucesos/alternativas son independientes, la probabilidad a lo largo de cada trayectoria se calcular multiplicando las probabilidades que aparecen en el recorrido. Las bifurcaciones representan uniones disjuntas. Estas probabilidades que se van poniendo en las ramificaciones antes de llegar al final de una trayectoria son probabilidades condicionadas, porque dependen de los resultados anteriores.

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES

EJEMPLO DE DIAGRAMAS DE RBOL A lo largo de un da, se pone a prueba un determinado diagnstico con 3 pacientes que no guardan relacin alguna entre ellos. El diagnstico es fiable en un 90% de los casos tanto cuando se da como cuando no se da la condicin para cuya deteccin se ha diseado la prueba. Cul es la probabilidad de que exactamente dos de los tres resultados de la prueba sean errrneos? Representemos: C decisin correcta 01 El diagrama en rbol es:
01 01

E
E C E C E C E C

decisin errnea

E C E C

E
09 01

09 01 09 01 09 01 09

09

C
09

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES

EJEMPLO DE DIAGRAMAS DE RBOL Puesto que las pruebas se llevan a cabo sobre pacientes diferentes y con independencia las unas de las otras, podemos suponer que los resultados son independientes de forma intuitiva. Por ello, la probabilidad a lo largo de cada trayectoria se obtiene multiplicando las probabilidades que aparecen en el recorrido. Una trayectoria posible para este caso es: EEC, que representa que se dieron simultneamente un error con el primer paciente (E1), un error con el segundo (E2) y una decisin correcta con el tercero (C3):

p ( E1 E2 C3 ) = p ( E1 ). p ( E2 ). p (C3 ) = 0 '1.0 '1.0 '9 = 0 '009


Puesto que hay 3 trayectorias en las que aparecen exactamente dos errores, la probabilidad de obtener exactamente dos errores en cualquier orden es: 3.0009 = 0027

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES

6.1 TEOREMA DE BAYES LA RESOLUCIN DE LOS PROBLEMAS DE BAYES PUEDEN RESOLVERSE MS FCILMENTE CON LA AYUDA DE UN DIAGRAMA DE RBOL. LOS SUCESOS Aj QUE CONSTITUYEN LA PARTICIN DEL ESPACIO MUESTRAL PRODUCEN LA 1 RAMIFICACIN DEL DIAGRAMA DE RBOL. SUPONGAMOS QUE SE PRODUCE OTRO SUCESO B Y QUE CONOCEMOS p(B|Ai) PARA CADA j. ESTE SUCESO PRODUCE LA RAMIFICACIN 2 ETAPA DEL RBOL. SE QUIERE HALLAR LA PROBABILIDAD DE QUE OCURRA UN SUCESO ESPECFICO DE LA PARTICIN Aj DADO QUE HA OCURRIDO EL SUCESO B:

p( Aj | B) =

p( Aj B) p(B)

6.

TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES


p( Aj B) p(B)

6.1 TEOREMA DE BAYES

p( Aj | B) =

EL NUMERADOR CORRESPONDE A LA PROBABILIDAD DE LA TRAYECTORIA j-SIMA. EL DENOMINADOR ES UNA PROBABILIDAD TOTAL Y ES LA SUMA DE LAS PROBABILIDADES DE LAS TRAYECTORIAS QUE CORRESPONDEN AL SUCESO B.

Recuento

EJEMPLO 1
CLASIFICACION NORMAL OMS OSTEOPENIA OSTEOPOROSIS Total

MENOPAUSIA NO SI 189 280 108 359 6 58 303 697

Total 469 467 64 1000

Se ha repetido en 1000 ocasiones el experimento de elegir a una mujer de una poblacin muy grande. El resultado est en la tabla.
Cul es la probabilidad de que una mujer tenga osteoporosis?
P(Osteoporosis)=64/1000=0,064=6,4%
Nocin frecuentista de probabilidad

EJEMPLO 1

Recuento MENOPAUSIA NO SI 189 280 108 359 6 58 303 697 Total 469 467 64 1000

CLASIFICACION NORMAL OMS OSTEOPENIA OSTEOPOROSIS Total

Probabilidad de tener osteopenia u osteoporosis? P(OsteopeniaUOsteoporosis)=467/1000+64/1000=0,531


Son sucesos disjuntos Osteopenia Osteoporosis=

Probabilidad de tener osteoporosis o menopausia? P(OsteoporosisUMenopausia)=64/1000+697/1000-58/1000=0,703


No son sucesos disjuntos

Probabilidad de una mujer normal? (entindase)


P(Normal)=469/1000=0,469 P(Normal)=1-P(Normal)=1-P(OsteopeniaUOsteoporosis) =1-0,531=0,469

Recuento

EJEMPLO 1

Ejemplo (III)
CLASIFICACION NORMAL OMS OSTEOPENIA OSTEOPOROSIS Total

MENOPAUSIA NO SI 189 280 108 359 6 58 303 697

Total 469 467 64 1000

Si es menopusica probabilidad de osteoporosis?


P(Osteoporosis|Menopausia)=58/697=0,098

Probabilidad de menopausia y osteoporosis?


P(Menop Osteoporosis) = 58/1000=0,058
Otra forma:

P(Menop Osteoporos is) = P(Menop) P(Osteoporos is | Menop) = 697 58 = = 58 / 1000 = 0,058 1000 697

Recuento

EJEMPLO 1

Ejemplo (IV)
CLASIFICACION NORMAL OMS OSTEOPENIA OSTEOPOROSIS Total

MENOPAUSIA NO SI 189 280 108 359 6 58 303 697

Total 469 467 64 1000

Son independientes menopausia y osteoporosis?


Una forma de hacerlo
P(Osteoporosis)=64/1000=0,064 P(Osteoporosis|Menopausia)=58/697=0,098
La probabilidad de tener osteoporosis es mayor si ha pasado la menopausia. Aade informacin extra. No son independientes!

Otra forma?
P(Menop Osteoporosis) = 58/1000 = 0,058 P(Menop) P(Osteoporosis)= (697/1000) x (64/1000) = 0,045
La probabilidad de la interseccin no es el producto de probabilidades. No son independientes.

EJEMPLO 2
En un recinto el 70% de los presentes son mujeres. De ellas el 10% son fumadoras. De los hombres, son fumadores el 20%. Qu porcentaje de fumadores hay?
P(F) = P(MF) + P(HF) = P(M)P(F|M) + P(H)P(F|H) =0,7 x 0,1 + 0,3 x 0,2 = 0,13 =13%
Mujer 0,7 0,1 0,9 No fuma Fuma

Estudiante 0,3 Hombre 0,8 No fuma 0,2 Fuma

EJEMPLO 2
En un recinto aula el 70% de los presentes son mujeres. De ellas el 10% son fumadoras. De los hombres, son fumadores el 20%.
Se elije a un individuo al azar y es fumador Probabilidad de que sea un hombre?
0,7 Estudiante 0,3 0,2 Hombre 0,8 No fuma Fuma 0,1 Mujer 0,9 No fuma Fuma

P( H | F ) =

P( H F ) P( H ) P( F | H ) = = P( F ) P( F )

0,3 0,2 = = 0,46 0,13

Você também pode gostar