Escolar Documentos
Profissional Documentos
Cultura Documentos
Temas:
Integrantes:
2019-I
1. Probar que la distribución geométrica tiene también la propiedad de falta de
memoria vista en clase. Presente un ejemplo de aplicación.
Demostración:
𝑥 ∈𝑁
P( X x) 1 P( X x) 1 FX ( x 1) 1 (1 (1 p) x ) (1 p) x , 𝑥 ∈ 𝑁
P( X s t X t ) P( X s t )
P( X s t / X t )
P( X t ) P( X t )
P( X s t 1) (1 p)s t 1
(1 p)s 1 P( X s 1) P( X s)
P( X t ) (1 p) t
P( X s 1) P( X 1) P( X s ) (1 p) P( X s ) s N (2)
P( X s 1) (1 p) P( X s) s N .
P( X 2) (1 p) p
P( X 3) (1 p) 2 p
y, en general, P( X n) (1 p)n1 p n N ,
es decir: 𝑋~𝐺(𝑝)
y la probabilidad de anotar una canasta es de 0.8. Si ya lleva fallando más de 2 tiros, ¿Cuál es
la probabilidad de que necesite tirar más de 6 tiros hasta anotar?
𝑋~𝐺(0.8)
𝑃(𝑌 > 6|𝑌 > 2) = 𝑃(𝑌 > 6 − 2) = 𝑃(𝑌 > 4) = 1 − 𝑃(𝑌 < 4)
3
P(Y 3) (1 p) y 1 p (0.20 0.8) (0.21 0.8) (0.22 0.8) 0.992
y 1
Ejemplo N° 2:
Roberto está en una fiesta y comenzó a invitar chicas a bailar. Sea X el número de chicas que
tuvo que invitar para encontrar una pareja de baile. Si la primera chica acepta, entonces X=1.
Si la primera declina, pero acepta la chica de al lado, entonces X=2. Y así sucesivamente.
Cuando X=n, significa que no he logrado en los primeros (n-1) intentos y tuve éxito en el
intento n-ésimo.
La probabilidad de fracasar en el primer intento es (1-p). De fallar es los dos primeros intentos
es (1-p) (1-p).
La probabilidad de que falle en el primer (n-1) intento es (1-p) (1-n). Entonces, la habilidad
de Roberto de tener éxito en el n-ésimo intento es p.
Para entender la función de riesgos primero debemos conocer la función de supervivencia 𝑺(𝒕). La
función de supervivencia es la probabilidad de que no ocurra el evento de interés al menos hasta un
tiempo 𝒕.
Así se tiene una variable 𝑻 aleatoria no negativa con función de distribución igual a 𝑭(𝒕) y función
de densidad 𝒇(𝒕). La función de supervivencia será:
La función de razón de riesgos o tasa instantánea de fallas 𝒉(𝒕) se define como el cociente de la
función de densidad y la función de supervivencia:
𝒇(𝒕) 𝒇(𝒕)
𝒉(𝒕) = =
𝑺(𝒕) 𝟏 − 𝑭(𝒕)
Es la probabilidad de que a un individuo le ocurra el evento de interés en la siguiente unidad de tiempo
∆𝒕, dado que ha sobrevivido hasta el tiempo 𝒕.
𝑭′(𝒕) 𝒇(𝒕)
𝒉(𝒕) = 𝐥𝐢𝐦 𝑻𝑴𝑭 = =
∆𝒕→𝟎 𝑺(𝒕) 𝑺(𝒕)
𝒇(𝒕)
𝑺(𝒕) =
𝒉(𝒕)
𝒕
𝑯(𝒕) = ∫ 𝒉(𝒖)𝒅𝒖 = −𝒍𝒐𝒈 𝑺(𝒕)
𝟎
Despejando𝑺(𝒕), se tiene:
𝒕
𝑺(𝒕) = 𝒆− ∫𝟎 𝒉(𝒕)𝒅𝒕 = 𝒆−𝑯(𝒕)
Distribución Weibull:
El modelo Weibull es la generalización del modelo exponencial. Se dice que la variable aleatoria 𝑻se
distribuye como una distribución Weibull de parámetros ∝> 0 y 𝜆 > 0 si su función de densidad
toma la siguiente expresión:
𝜶
𝒇(𝒕; 𝝀, 𝜶) = 𝜶𝝀(𝝀𝒕)𝜶−𝟏 𝒆−(𝝀𝒕)
∞
𝜶
𝑺(𝒕; 𝝀, 𝜶) = ∫ 𝒇(𝒖)𝒅𝒖 = 𝒆−(𝝀𝒕)
𝒕
𝒕
𝑯(𝒕; 𝝀, 𝜶) = ∫ 𝒉(𝒖)𝒅𝒖 = (𝝀𝒕)𝜶
𝟎
Ejemplo:
El análisis de la velocidad del viento se usa para predecir algún desastre natural. En cierta zona
se encontró que el tiempo en que se dan velocidades del viento a niveles alarmantes se distribuye
como una Weibull con parámetro 𝜶=1.8253 y 𝝀 = 𝟏/𝟖. 𝟐𝟔𝟖. Hallar el riesgo de que ocurra un
desastre natural en un tiempo igual a 5.
𝒇(𝒕)
Usando la expresión 𝒉(𝒕) = 𝟏−𝑭(𝒕) :
> dweibull(t,a,l^(-1))/(1-pweibull(t,a,l^(-1)))
[1] 0.1457683
Distribución Logística:
Se dice que la variable aleatoria 𝑻 se distribuye como una distribución logística de parámetros 𝜇 y 𝜎
si sus funciones de distribución, densidad y de riesgo toman la forma:
𝒕−𝝁
𝑭(𝒕; 𝝁, 𝝈) = 𝚽𝒍𝒐𝒈 𝒊𝒔 ( )
𝝈
𝟏 𝒕−𝝁
𝒇(𝒕; 𝝁, 𝝈) = 𝜙𝒍𝒐𝒈 𝒊𝒔 ( )
𝝈 𝝈
𝟏 𝒕−𝝁
𝒉(𝒕; 𝝁, 𝝈) = 𝚽𝒍𝒐𝒈 𝒊𝒔 ( )
𝝈 𝝈
donde:
𝒆𝒛
𝚽𝒍𝒐𝒈 𝒊𝒔 (𝒛) = 𝟏+𝒆𝒛es lafunción de distribución de la distribución logística estándar.
𝒆𝒛
𝜙𝒍𝒐𝒈 𝒊𝒔 (𝒛) = (𝟏+𝒆𝒛 )𝟐es la función de densidad de la distribución logística estándar.
Ejemplo:
𝟏 𝒕−𝝁
Usando la expresión𝒉(𝒕; 𝝀, 𝜶) = 𝝈 𝚽𝒍𝒐𝒈 𝒊𝒔 ( 𝝈
) :
>t=10
>u=7.25
>s=5.56
>z=(t-u)/s
>exp(z)/(1+exp(z))/s
[1] 0.1117249
𝒇(𝒕)
Usando la expresión 𝒉(𝒕) = 𝟏−𝑭(𝒕) :
>dlogis(t,u,s)/(1-plogis(t,u,s))
[1] 0.1117249
𝒔𝟏 , 𝒔𝟐 , … , 𝒔𝒏
tienen la misma distribución que las estadísticas de orden correspondientes a n variables aleatorias
independientes con distribución uniforme en el intervalo (0,t), es decir:
𝒏!
𝒇(𝒔𝟏 , 𝒔𝟐 , … , 𝒔𝒏 |𝒏) =
𝒕𝒏
para 𝟎 < 𝒔𝟏 < 𝒔𝟐 < ⋯ < 𝒔𝒏 < 𝒕
La Distribución Uniforme
1
𝑓𝑈 (𝑢) = , 𝑝𝑎𝑟𝑎 0 ≤ 𝑢 ≤ 𝑡
𝑡
Considerando ahora esta misma muestra pero ordenada y llamándola𝑈(𝑖) , 1 ≤ 𝑖 ≤ 𝑛 , a sus valores,
de modo que
𝑛!
𝑓𝑈(1) ,…,𝑈(𝑛) (𝑢1 , … , 𝑢𝑛 ) = 𝑝𝑎𝑟𝑎 0 < 𝑢1 < ⋯ < 𝑢𝑛 ≤ 𝑡 (1)
𝑡𝑛
Se conocen como los estadísticos de orden. El próximo teorema nos dice cómo se obtiene su
distribución en el caso general.
Teorema
Sean 𝑋(1) ≤ 𝑋(2) ≤ ⋯ ≤ 𝑋(𝑛) los estadísticos de orden para una muestra aleatoria simple de
variables aleatorias continuas con densidad f(x). La densidad conjunta de los estadísticos de orden
es:
𝑛
𝑛! ∏ 𝑓(𝑥(𝑖) ), 𝑥(1) , 𝑥(2) , … , 𝑥(𝑛) ,
𝑔𝑛 (𝑥(1) , 𝑥(2) , … , 𝑥(𝑛) ) = { 𝑖=1 } (2)
0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜.
Demostración:
𝑨 = {(𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 ) ∶ 𝒙𝒊 ∈ ℝ, 𝒙𝒊 ≠ 𝒙𝒋 𝒑𝒂𝒓𝒂 𝒊 ≠ 𝒋} y
𝑩 = {(𝒙(𝟏) , 𝒙(𝟐) , … , 𝒙(𝒏) ) ∶ −∞ < 𝒙(𝟏) < 𝒙(𝟐) < ⋯ < 𝒙(𝒏) }
La transformación que define los estadísticos de orden es una función de A a B pero no es 1-1, ya que
cualquiera de las n! permutaciones de los valores observados produce los
mismos estadísticos de orden. Por ejemplo, cuando n = 2, si (𝑥1 , 𝑥2 ) = (1.3,3.4) 𝑦 (𝑥1 , 𝑥2 ) =
(3.4,3.1) 𝑎𝑚𝑏𝑜𝑠 𝑝𝑟𝑜𝑑𝑢𝑐𝑒𝑛 (𝑥(1) , 𝑥(2) ) = (1.3,3.4)
|𝐽1 | = |1 0
|=1
0 1
0 1
|𝐽2 | = | |=1
1 0
En el caso general se ve similarmente que el Jacobiano de cada una de las biyecciones de una de las
n! regiones en que dividimos A sobre B, tiene valor absoluto igual a 1. La densidad conjunta de los
estadísticos de orden es, en consecuencia, la suma de las contribuciones de cada conjunto de la
partición.
En el caso particular n = 2 tenemos para −∞ < 𝑥1 < 𝑥2 < ∞,
= 2𝑓(𝑥(1) )𝑓(𝑥(2) )
Para n cualquiera, la densidad conjunta (2) se obtiene tomando en cuenta que la contribución de cada
una de las n! particiones es ∏𝑛𝑖=1 𝑓(𝑥(𝑖) ).
En el caso particular de la distribución uniforme obtenemos la ecuación (1) para la densidad de los
estadísticos de orden.
Teorema:
Sean 𝜏1 , 𝜏2 , … los instantes en los cuales ocurren los sucesivos eventos de un proceso de Poisson de
parámetro 𝜆. Dado que N(t) = n, las variables 𝜏1 , 𝜏2 , … tienen la misma distribución conjunta que
los estadísticos de orden de n v.a.i. con distribución uniforme en [0; t].
Demostración:
Se considera un proceso de Poisson {𝑁(𝑡), 𝑡 ≥ 0} y se supone que en el intervalo [0; t] han ocurrido
n eventos. Sea [𝑡𝑖 , 𝑡𝑖 + ℎ𝑖 ], 1 ≤ 𝑖 ≤ 𝑛, una sucesión de intervalos disjuntos en [0; t].
Dado que han ocurrido n eventos hasta t, la probabilidad de que ocurra exactamente un evento en
cada uno de los intervalos que listamos y ningún evento fuera de ellos es:
𝑃(𝑡1 ≤ 𝜏1 ≤ 𝑡1 + ℎ1 , … , 𝑡𝑛 ≤ 𝜏𝑛 ≤ 𝑡𝑛 + ℎ𝑛 |𝑁(𝑡) = 𝑛)
𝑛!
= 𝑡 𝑛 ℎ1 … ℎ𝑛 (3)
Pero, por definición de la función de densidad, el lado izquierdo de (3) es, para valores pequeños de
ℎ𝑖 , 1 ≤ 𝑖 ≤ 𝑛, aproximadamente igual a
Esto es suficiente para demostrar que la densidad condicional de los tiempos 𝜏𝑖 dado que han ocurrido
n eventos en el intervalo [0; t] es igual a 𝑛!⁄𝑡 𝑛 .
Ejemplo: Los clientes se presentan en la sección de atención de quejas por productos defectuosos de
una casa de electrodomésticos a razón de dos clientes por hora. ¿Cuál es la probabilidad de que se
presenten cuatro clientes durante la próxima hora?
Solución: en este caso lambda=2 clientes por hora, T=1 hora y n=4 clientes. La probabilidad de que
lleguen cuatro clientes en la próxima hora es:
2(1)
4
16 2
P(4) e2(1) e 0, 090
4! 24
Otra forma de especificar la distribución de llegadas consiste en hacerlo en términos de tiempos entre
llegadas de clientes, es decir, el intervalo de tiempo entre la llegada de dos clientes sucesivos. Si la
población de clientes genera a estos de acuerdo con una distribución de poisson, entonces la
distribución exponencial describe la probabilidad de que el próximo cliente llegue durante los
siguientes T periodos de tiempo.