Você está na página 1de 19

Distribuciones discretas y continuas

Las distribuciones discretas son aquellas en las que la variable puede pude tomar un nmero determinado de valores:

Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado puede salir un nmero de 1 al 6; en una ruleta el nmero
puede tomar un valor del 1 al 32.

Las distribuciones continuas son aquellas que presentan un nmero infinito de posibles soluciones:

Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos valores dentro de cierto intervalo (42,37 kg, 42,3764 kg,
42,376541kg, etc); la esperanza media de vida de una poblacin (72,5 aos, 72,513 aos, 72,51234 aos).

Vamos a comenzar por estudiar las principales distribuciones discretas.

Distribuciones discretas: Bernouilli

Es aquel modelo que sigue un experimento que se realiza una sola vez y que puede tener dos soluciones: acierto o fracaso:

Cuando es acierto la variable toma el valor 1

Cuando es fracaso la variable toma el valor 0

Ejemplo: Probabilidad de salir cara al lanzar una moneda al aire (sale cara o no sale); probabilidad de ser admitido en una universidad (o te
admiten o no te admiten); probabilidad de acertar una quiniela (o aciertas o no aciertas)

Al haber nicamente dos soluciones se trata de sucesos complementarios:

A la probabilidad de xito se le denomina "p"

A la probabilidad de fracaso se le denomina "q"

Verificndose que:

p+q=1

Veamos los ejemplos anteriores :

Ejemplo 1: Probabilidad de salir cara al lanzar una moneda al aire:

Probabilidad de que salga cara: p = 0,5

Probabilidad de que no salga cara: q = 0,5

p + q = 0,5 + 0,5 = 1

Ejemplo 2: Probabilidad de ser admitido en la universidad:

Probabilidad de ser admitido: p = 0,25

Probabilidad de no ser admitido: q = 0,75

p + q = 0,25 + 0,75 = 1

Ejemplo 3: Probabilidad de acertar una quiniela:

Probabilidad de acertar: p = 0,00001

Probabilidad de no acertar: q = 0,99999

p + q = 0,00001 + 0,99999 = 1
Distribucin de Bernoulli y Distribucin Binomial
La distribucin de Bernoulli (o distribucin dicotmica), nombrada as por el matemtico y cientfico suizo Jakob Bernoulli, es una distribucin

de probabilidad discreta, que toma valor 1 para la probabilidad de xito ( ) y valor 0 para la probabilidad de fracaso ( ).

Si X es una variable aleatoria que mide "nmero de xitos", y se realiza un nico experimento con dos posibles resultados (xito o fracaso), se
dice que la variable aleatoria X se distribuye como una Bernoulli de parmetro P.

Su formula es:

La distribucin Binomial es una distribucin de probabilidad discreta que mide el nmero de xitos en una secuencia de n ensayos
de Bernoulli independientes entre s, con una Probabilidad fija p de ocurrencia del xito entre los ensayos.

Un experimento de Bernoulli se caracteriza por ser dicotmico, esto es, slo son posibles dos resultados. A uno de estos se denomina xito y
tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad Q = 1 - p. En la distribucin Binomial el anterior experimento se
repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado nmero de xitos. Para N = 1, la Binomial se
convierte, de hecho, en una distribucin de Bernoulli.

N= Numero de eventos.

X= Numero de xitos.

P= Probabilidad de xito.

Q= probabilidad de fracaso.

F(X)= Probabilidad de tener X xitos en un numero N de ensayos.

Sus propiedades son:

Media: n.p

Varianza: n.p.q

Desviacin tpica o estndar: n.p.q


Ejemplo: Se quiere saber cuales la probabilidad de que encontremos 10 basureros daados de 50 ubicados en el barrio Tamasagra de San
Juan De Pasto; se sabe que la probabilidad de que estn daados es de 15.8%.

N= 50

X= 10

P= 15.8% 0.158%

Q= 84.2% 0.842%

50! . 0.15810 . 084.240 = 0.00205

(50-10)! 10!

La probabilidad de encontrar 10 basureros daados de 50 tomados es de 0.00205%, en distribucin Binomial.

Los basureros nos ayudan a mejorar el ambiente de la ciudad disminuyendo las emisiones de CO2 directo a la atmosfera

Distribucin de probabilidad binomial


Esta distribucin se basa en el proceso de Bernoulli. Se denominan procesos de tipo Bernoulli, a todo experimento consistente en una serie
de pruebas repetidas, caracterizadas por tener resultados que se pueden clasificar en si verifican o no cierta propiedad o atributo, siendo
aleatorios e independientes.
Para identificar un proceso Bernoulli en una serie de pruebas repetidas, se deben verificar tres condiciones:
Resultados dicotmicos: Los resultados de cada prueba se pueden clasificar en "xito" si verifican cierta condicin, o "fracaso" en
el caso contrario.
Independencia de las pruebas: El resultado de una prueba cualquiera es independiente del resultado obtenido en la prueba
anterior, y no incide en el resultado de la prueba siguiente.
Estabilidad de las pruebas: La probabilidad p de obtener un resultado considerado como un xito se mantiene constante a lo largo
de toda la serie de pruebas.
Cuando en un proceso del tipo Bernoulli se desea saber la probabilidad de obtener exactamente r xitos, en una serie de n pruebas, con una
probabilidad de xito p, se puede aplicar la frmula de la probabilidad binomial:

Veamos el siguiente ejemplo:


Sea el caso de una drogaX, con una dosis mortal de 1g/100 ml para cobayos experimentales, en el 25% de los casos. Aplicando esta dosis a
cien cobayos se desea saber cuanto vale la probabilidad de que mueran veinte de ellos.
Primero analizaremos si este caso cumple los supuestos bsicos de una distribucin binomial:
Los cobayos mueren (xito) o sobreviven (fracaso).
Que un cobayo muera con la dosis, no significa que lo har el siguiente ( independencia) pues no se trata de una epidemia.
La probabilidad de que mueran se mantiene constante a lo largo de la serie de pruebas (p = 0,25).
Entonces, como si cumple los supuestos bsicos, aplicamos la formula:
Distribucin de probabilidad Poisson
Se denominan procesos de tipo Poisson, a todo experimento consistente en una serie de pruebas repetidas dentro de un continuo,
caracterizadas por tener resultados que se pueden clasificar en si verifican o no, cierta propiedad o atributo, siendo aleatorios e independientes
del lugar que ocurren dentro del continuo.
Para identificar un proceso Poisson en una serie de pruebas repetidas, se deben verificar tres condiciones:
Sucesos puntuales: Los sucesos ocurren dentro de un continuo (espacio o tiempo) y ocupan una parte infinitesimal del mismo. Es
decir, en el espacio un suceso es puntual y en el tiempo es instantneo. En trminos prcticos, los sucesos no ocupan una parte apreciable del
continuo.
Sucesos independientes: La ocurrencia de un suceso en un lugar del continuo no condiciona la ocurrencia del anterior (o del
siguiente) en otra parte del mismo.
Probabilidad constante: La probabilidad de ocurrencia de un suceso en un lugar del continuo es la misma en todo punto del mismo.
Son ejemplos de este tipo de proceso:
la llegada de pacientes a una cola o lnea de espera,
los accidentes en una ruta, etc.
Esta probabilidad se aproxima la binomial cuando la probabilidad de xito es muy pequea, por eso muchos la llaman: la "binomial de los
sucesos raros".

Cuando en un proceso del tipo Bernoulli se desea saber la probabilidad de obtener exactamente x xitos en un intervalo de tiempo, con un
promedio de eventos esperados l , se puede aplicar la frmula de la probabilidad de Poisson:

X = 0, 1, 2, ., n
e = 2.71828 (es una constante, la base de los logaritmos naturales)
Veamos el siguiente ejemplo:
Supongamos que estamos investigando la seguridad de una peligrosa inteleccin de calles, los registros policacos indican una media de 5
accidentes mensuales en esta interseccin.
El departamento de seguridad vial desea que calculemos la probabilidad de que en cualquier mes ocurran exactamente 3 accidentes.
Analizando el problema, este situacin se ajusta a un proceso de Poisson, hay una secuencia de llegada (por mas que exista un choque
mltiple, siempre hay uno que choca primero). Tenemos la siguiente informacin:
l = 5 accidentes por mes
x = 3 accidentes por mes
Aplicando la formula de la probabilidad de Poisson:

Autor:
Mayra Elizabeth Avila Beltran

Leer ms: http://www.monografias.com/trabajos81/distribuciones-probabilidad-discreta/distribuciones-probabilidad-discreta2.shtml#distribucc#ixzz4cQ8sv2li


Variables aleatorias discretas y continuas

Variables aleatorias discretas

Distribucin uniforme

La distribucin uniforme es la que corresponde a una variable que toma todos sus valores, x1, x2... , xk, con igual
probabilidad; el espacio muestral debe ser finito.

Si la variable tiene k posibles valores, su funcin de probabilidad sera:

donde k es el parmetro de la distribucin (un parmetro es un valor que sirve para determinar la funcin de probabilidad o
densidad de una variable aleatoria)

La media y la varianza de la variable uniforme se calculan por las expresiones:

El histograma de la funcin toma el aspecto de un rectngulo, por ello, a la distribucin uniforme se le suele llamar
distribucin rectangular.

Distribucin binomial
La distribucin binomial es tpica de las variables que proceden de un experimento que cumple las siguientes
condiciones:

1) El experimento est compuesto de n pruebas iguales, siendo n un nmero natural fijo.

2) Cada prueba resulta en un suceso que cumple las propiedades de la variable binmica o de Bernouilli, es decir, slo
existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como xito y fracaso.

3) La probabilidad del xito (o del fracaso) es constante en todas las pruebas. P(xito) = p ; P(fracaso) = 1 - p = q

4) Las pruebas son estadsticamente independientes,

En estas condiciones, la variable aleatoria X que cuenta el nmero de xitos en las n pruebas se llama variable
binomial. Evidentemente, el espacio muestral estar compuesto por los nmeros enteros del 0 al n. Se suele decir que una
variable binmica cuenta objetos de un tipo determinado en un muestreo de n elementos con reemplazamiento.

La funcin de probabilidad de la variable binomial se representa como b(x,n,p) siendo n el nmero de pruebas y p la
probabilidad del xito. n y p son los parmetros de la distribucin.

La manera ms fcil de calcular de valor de nmeros combinatorios, como los incluidos en la expresin anterior, es
utilizando el tringulo de Tartaglia

La media y la varianza de la variable binomial se calculan como:


Media = = n p

Varianza = 2 = n p q

Grficamente el aspecto de la distribucin depende de que sea o no simtrica Por ejemplo, el caso en que n = 4:

Distribucin multinomial

La distribucin multinomial es esencialmente igual a la binomial con la nica diferencia de que cada prueba tiene ms
de dos posibles resultados mutuamente excluyentes.

Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas (pi , i = 1, ... , K), la variable que expresa el
nmero de resultados de cada tipo obtenidos en n pruebas independientes tiene distribucin multinomial.

La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. se representa como:

Los parmetros de la distribucin son p1,..., pK y n.


Distribucin hipergeomtrica

Una variable tiene distribucin hipergeomtrica si procede de un experimento que cumple las siguientes condiciones:

1) Se toma una muestra de tamao n, sin reemplazamiento, de un conjunto finito de N objetos.

2) K de los N objetos se pueden clasificar como xitos y N - K como fracasos.

X cuenta el nmero de xitos obtenidos en la muestra. El espacio muestral es el conjunto de los nmeros enteros de 0
a n, de 0 a K si K < n.

En este caso, la probabilidad del xito en pruebas sucesivas no es constante pues depende del resultado de las
pruebas anteriores. Por tanto, las pruebas no son independientes entre s.

La funcin de probabilidad de la variable hipergeomtrica es:

Los parmetros de la distribucin son n, N y K.

Los valores de la media y la varianza se calculan segn las ecuaciones:

Si n es pequeo, con relacin a N (n << N), la probabilidad de un xito variar muy poco de una prueba a otra, as
pues, la variable, en este caso, es esencialmente binomial; en esta situacin, N suele ser muy grande y los nmeros
combinatorios se vuelven prcticamente inmanejables, as pues, la probabilidades se calculan ms cmodamente aproximando
por las ecuaciones de una binomial con p = K / N.

La media de la variable aproximada ( = n p = n (K / N)) es la misma que la de la variable antes de la aproximacin;


sin embargo, la varianza de la variable binomial es ligeramente superior a la de la hipergeomtrica.

el factor por el que difieren ser siempre menor que 1 y tan prximo a 1 como cierto sea que n << N.
El aspecto de la distribucin es bastante similar al de la binomial. Como ejemplo, mostramos los casos anlogos a los
de las binomiales del apartado anterior (p inicial = 0,25 y n = 4)

Distribucin multihipergeomtrica

Este variable se define igual que la hipergeomtrica con la nica diferencia de que se supone que el conjunto de
objetos sobre el que se muestrea se divide en R grupos de A1, A2,..., AR objetos y la variable describe el nmero de objetos de
cada tipo que se han obtenido (x1, x2,..., xR)

Esta situacin es anloga a la planteada en el caso de la distribucin multinomial. La funcin de probabilidad es:

Distribucin de poisson

Una variable de tipo poisson cuenta xitos (es decir, objetos de un tipo determinado) que ocurren en una regin del
espacio o del tiempo.
El experimento que la genera debe cumplir las siguientes condiciones:

1. El nmero de xitos que ocurren en cada regin del tiempo o del espacio es independiente de lo que ocurra
en cualquier otro tiempo o espacio disjunto del anterior.
2. La probabilidad de un xito en un tiempo o espacio pequeo es proporcional al tamao de este y no
depende de lo que ocurra fuera de l.

3. La probabilidad de encontrar uno o ms xitos en una regin del tiempo o del espacio tiende a cero a
medida que se reducen las dimensiones de la regin en estudio.

Como consecuencia de estas condiciones, las variables Poisson tpicas son variables en las que se cuentan sucesos
raros.

La funcin de probabilidad de una variable Poisson es:

El parmetro de la distribucin es que es igual a la media y a la varianza de la variable.

Esta caracterstica puede servirnos para identificar a una variable Poisson en casos en que se presenten serias
dificultades para verificar los postulados de definicin.

La distribucin de Poisson se puede considerar como el lmite al que tiende la distribucin binomial cuando n tiende
a y p tiende a 0, siendo np constante (y menor que 7); en esta situacin sera difcil calcular probabilidades en una variable
binomial y, por tanto, se utiliza una aproximacin a travs de una variable Poisson con media l = n p.

La varianza de la variable aproximada es ligeramente superior a la de la variable binomial.

Las variables Poisson cumplen la propiedad de que la suma de variables Poisson independientes es otra Poisson con
media igual a la suma las medias.

El aspecto de la distribucin depende muchsimo de la magnitud de la media. Como ejemplo, mostramos tres casos
con = 0,5 (arriba a la izquierda), = 1,5 (arriba a la derecha) y = 5 (abajo) Obsrvese que la asimetra de la distribucin
disminuye al crecer y que, en paralelo, la grfica empieza a tener un aspecto acampanado.
Variables aleatorias continuas

Distribucin normal o de Gauss

La distribucin normal fue definida por De Moivre en 1733 y es la distribucin de mayor importancia en el campo de la
estadstica.

Una variable es normal cuando se ajusta a la ley de los grandes nmeros, es decir, cuando sus valores son el
resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal.

Las variables normales tienen una funcin de densidad con forma de campana a la que se llama campana de Gauss.

Su funcin de densidad es la siguiente:


Los parmetros de la distribucin son la media y la desviacin tpica, y , respectivamente. Como consecuencia, en
una variable normal, media y desviacin tpica no deben estar correlacionadas en ningn caso (como desgraciadamente ocurre
en la inmensa mayora de las variables aleatorias reales que se asemejan a la normal.

La curva normal cumple las siguientes propiedades:

1) El mximo de la curva coincide con la media.

2) Es perfectamente simtrica respecto a la media (g1 = 0).

3) La curva tiene dos puntos de inflexin situados a una desviacin tpica de la media. Es convexa entre ambos puntos
de inflexin y cncava en ambas colas.

4) Sus colas son asintticas al eje X.


Para calcular probabilidades en intervalos de valores de la variable, habra que integrar la funcin de densidad entre
los extremos del intervalo. por desgracia (o por suerte), la funcin de densidad normal no tiene primitiva, es decir, no se puede
integrar. Por ello la nica solucin es referirse a tablas de la funcin de distribucin de la variable (calculadas por integracin
numrica) Estas tablas tendran que ser de triple entrada (, , valor) y el asunto tendra una complejidad enorme.

Afortunadamente, cualquier que sea la variable normal, X, se puede establecer una correspondencia de sus valores
con los de otra variable con distribucin normal, media 0 y varianza 1, a la que se llama variable normal tipificada o Z. La
equivalencia entre ambas variables se obtiene mediante la ecuacin:

La funcin de distribucin de la variable normal tipificada est tabulada y, simplemente, consultando en las tablas se
pueden calcular probabilidades en cualquier intervalo que nos interese.

De forma anloga a lo pasaba con las variables Poisson, la suma de variables normales independientes es otra
normal.

Histograma de una normal idealizada Histograma de una muestra de una variable normal

Distribucin Gamma ()
La distribucin gamma se define a partir de la funcin gamma, cuya ecuacin es:

La funcin de densidad de la distribucin gamma es:

y son los parmetros de la distribucin.

La media y la varianza de la variable gamma son:


Distribucin exponencial

Es un caso particular de la distribucin gamma cuando = 1. Su funcin de densidad es:

Su parmetro es .

La media y la varianza de la distribucin exponencial son:

Distribucin Chi-cuadrado

Es otro caso particular de la distribucin gamma para el caso = 2 y = n / 2, siendo n un nmero natural.

Su funcin de densidad es:

El parmetro de la distribucin es y su media y su varianza son, respectivamente:

Otra forma de definir la distribucin es la siguiente: Supongamos que tenemos n variables aleatorias normales

independientes, X1,..., Xn, con media i y varianza (i = 1 ... n), la variable definida como
tiene distribucin con n grados de libertad y se le denomina n.

Variables chi-cuadrado con valores de progresivamente

mayores son cada vez menos asimtricas.

Distribucin T de Student

Supongamos dos variables aleatorias independientes, una normal tipificada, Z , y otra con distribucin con grados
de libertad, la variable definida segn la ecuacin:

tiene distribucin t con grados de libertad.

La funcin de densidad de la distribucin t es:


El parmetro de la distribucin t es , su nmero de grados de libertad.

Esta distribucin es simtrica respecto al eje Y y sus colas se aproximan asintticamente al eje X. Es similar a la
distribucin Z salvo que es platicrtica y, por tanto, ms aplanada.

Cuando n tiende a infinito, t tiende asintticamente a Z y se pueden considerar prcticamente iguales para valores de
n mayores o iguales que 30..

Variables T con valores de progresivamente mayores

son cada vez menos platicrticas

Comparacin entre la variable T y la normal tipificado.


Distribucin F de Snedecor

Sean U y V dos variables aleatorias independientes con distribucin con 1 y 2 grados de libertad, respectivamente.
La variable definida segn la ecuacin:

tiene distribucin F con 1, 2 grados de libertad.

La funcin de densidad de la distribucin F es:

Los parmetros de la variable F son sus grados de libertad 1 y 2.

Las distribuciones F tienen una propiedad que se utiliza en la construccin de tablas que es la siguiente:

Llamemos f1,2 al valor de una distribucin F con 1 y 2 grados de libertad que cumple la condicin, P(F > f1,2) = ;
llamemos f1,2 al valor de una distribucin F con 1 y 2 grados de libertad que cumple la condicin, P(F > f1,2) = 1- .
Ambos valores estn relacionados de modo que uno es el inverso del otro.
Variables F con distintos valores de 1 , 2

Você também pode gostar