Você está na página 1de 89

DISTRIBUCIONES MULTIVARIADAS Y SU

APLICACIN EN CONFIABILIDAD


T E S I S P R O F E S I O N A L

Que como requisito parcial para obtener el ttulo de:

L I C E N C I A D O EN E S T A D S T I C A


P R E S E N T A:

Miguel ngel Morales Hernndez
Chapingo, Texcoco, Edo. de Mxico, Abril de 2010
UNIVERSIDAD AUTNOMA CHAPINGO

DIVISIN DE CIENCIAS FORESTALES
DEPARTAMENTO DE ESTADSTICA
MATEMTICA Y CMPUTO
Esta tesis fue realizada por Miguel ngel Morales Hernndez, bajo la direccin del
Licenciado Margarito Soriano Montero. Fue revisada y aprobada por el siguiente Comit
Revisor y J urado Examinador, para obtener el ttulo de Licenciado en Estadstica.
PRESIDENTE.
Lic. Margarito Soriano Montero
_______________________________
SECRETARIO.
M.C. Alejandro Corona Ambriz
______________________________
VOCAL.
Dr. Eduardo Gutirrez Gonzlez
______________________________
SUPLENTE.
Dr. Antonio Villanueva Morales
______________________________
SUPLENTE.
M.C. ngel Leyva Ovalle
______________________________
Chapingo, Texcoco, Edo. de Mxico, Abril de 2010
AGRADECIMIENTOS
Agradezco primeramente a Dios por ser mi mejor amigo, mi fortaleza, darme todo lo
que tengo y no dejarme caer nunca.
A la universidad Autnoma Chapingo, que fue mi hogar durante siete aos y por la
que guardo un profundo cario y respeto.
Al Lic. Margarito Soriano Montero quien ha sido una persona muy importante en
mi formacin profesional y que ha dedicado su valioso tiempo a la elaboracin de este
material.
Al M.C. Alejandro Corona Ambrz a quien considero un profesor muy valioso por su
empeo y dedicacin en mi formacin y por la amistad que al mismo tiempo nos brinda.
Le agradezco su apoyo y sus valiosas aportaciones a este texto.
Al Dr. Eduardo Gutirrez Gonzlez y al Dr. Antonio Villanueva Morales. Por sus
aportaciones realizadas a este trabajo. Les agradezco tambin por todo lo que aprend
dentro del aula para ser un profesional y sobre todo una persona diferente.
Al M.C ngel Leyva Ovalle por la revisin del escrito, sugerencias y aportaciones
realizadas.
As tambien agradezco a todos mis maestros de la licenciatura por sus aportaciones en
mi formacin profesional y el constante empeo para que logre ser un excelente profesion-
al.
DEDICATORIA
A Dios por haberme dado la dicha de vivir, y al mismo tiempo, darme la oportunidad
de tener una nueva vida. Gracias por ser el gua de mi camino.
A mis padres: Carolina y Gabino, a ellos con mucho cario y respeto por ayudarme
a llegar hasta aqui. Porque de ellos he aprendido que con humildad, trabajo, esfuerzo y
dedicacin se construye un mejor futuro.
A mis hermanos: Juan Pablo, Heriberto, Jos Manuel, Modesto, Herminda, Conchis,
Mariana y Leonel. Gracias por su comprensin y apoyo. Porque juntos hemos disfrutado de
tristezas y alegrias, porque siempre reine la armonia en la familia. Agradezco y comparto
esta meta con todos ellos.
A todas mis seres queridos por haber conado en m; a mis tos (as), mis queridas
abuelitas y todos aquellos quienes hicieron posible, de alguna manera, el que lograra llegar
a este momento tan importante de mi vida.
A mis amigos Lupita Arce, Marinel, Laura, Ana, Lzaro, Bogarth, Fabin, Jorge,
Octavio, muy en especial a Yoana, y a todos aquellos que aunque no los mencione me han
brindado su amistad.
Con cario Miguel ngel

Indice
Resumen IV
Summary V
Introducci on VI
Planteamiento VIII
Objetivo General IX
Metodologa X
1. Elementos de conabilidad 1
1.1. Tipos usuales de datos en conabilidad . . . . . . . . . . . . . . . . . . . . 6
1.2. La ley normal de Falla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1. Funci on de Conabilidad de la ley Normal de Falla . . . . . . . . . 10
1.3. La ley Exponencial de Falla . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1. Funci on de Conabilidad de la Ley Exponencial de Falla . . . . . . 13
1.3.2. Tiempo Medio a la Falla (TMF) . . . . . . . . . . . . . . . . . . . . 14
1.4. La ley de Fallas de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.1. Funci on de Conabilidad de la ley de fallas Weibull . . . . . . . . . 15
1.5. Ley de Fallas Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6. Conabilidad en sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.7. Funci on de Verosimilitud para Distribuciones Multivariadas . . . . . . . . . 17
2. Distribuci on Normal Multivariada 20
2.1. Estimaci on de Par ametros en la Distribuci on Normal Multivariada . . . . . 23
2.1.1. Metodo de Maxima Verosimilitud . . . . . . . . . . . . . . . . . . . 23
I
2.1.2. Propiedades para

X y S . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2. Hip otesis para H
0
: =
0
con conocida . . . . . . . . . . . . . . . . . . 28
2.3. Intervalos de Conanza para la Normal Multivariada . . . . . . . . . . . . 29
2.4. Funci on de Conabilidad de la normal multivaridada . . . . . . . . . . . . 31
2.5. Caso: Log-normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5.1. Distribuci on Log-normal Multivariada . . . . . . . . . . . . . . . . 32
2.5.2. Media y matriz de Covarianza . . . . . . . . . . . . . . . . . . . . . 32
3. Distribuci on Exponencial Multivariada 34
3.1. Metodo de Maxima Verosimilitud . . . . . . . . . . . . . . . . . . . . . . . 38
3.2. Funci on de Conabilidad de la exponencial multivariada . . . . . . . . . . 39
4. Distribuci on Weibull Multivariada 40
4.1. Funci on de densidad de la distribuci on Weibull multivariada . . . . . . . . 41
4.2. Propiedades de la Distribuci on Weibull Multivariada . . . . . . . . . . . . 41
4.3. Estimaci on de los par ametros de la Distribuci on Weibull Multivariada . . 43
4.4. Metodo de Maxima Verosimilitud . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.1. Pruebas para muestras grandes . . . . . . . . . . . . . . . . . . . . 46
4.4.2. Pruebas para la independencia . . . . . . . . . . . . . . . . . . . . . 47
4.4.3. Pruebas para la simetra . . . . . . . . . . . . . . . . . . . . . . . . 47
4.5. Funci on de Conabilidad de la Distribuci on Weibull multivariada . . . . . 47
5. Distribuci on Gamma Multivariada 49
5.1. Met odo de M axima Verosimilitud . . . . . . . . . . . . . . . . . . . . . . . 51
5.2. Funci on de Conabilidad de la Distribuci on Gamma multivariada . . . . . 53
6. Aplicaci on a un problema de Conabilidad 54
6.1. Primer an alisis (variables T y C
1
) . . . . . . . . . . . . . . . . . . . . . . . 54
II
6.2. An alisis tomando todas las variables de la tabla 1: T, C
1
y C
2
. . . . . . . 58
6.3. Ajuste de una distribuci on normal a los datos . . . . . . . . . . . . . . . . 60
Conclusiones 62
Apendice 64
III
Resumen
La teora de la conabilidad tiene sus cimientos en an alisis meramente estadsticos y en
leyes probabilsticas de fallas pues no existe un modelo determinista que prediga el tiempo
en el cual un sistema falla. Es posible, sin embargo, aplicar un tratamiento estadstico que
modele en forma realista el estudio de la conabilidad de componentes o dispositivos que
en condiciones de montaje y uso adecuado se encuentran en funcionamiento un tiempo
determinado t. El an alisis de sobrevivencia multivariado o an alisis de conabilidad se
reere a los modelos multivariados de los diferentes tiempos de m ultiples eventos que son
registrados en la misma unidad experimental.
En el presente trabajo se estudiar an las tecnicas tradicionales para el an alisis de con-
abilidad de datos, estudiando tanto la parte te orica como la parte aplicada para que de
manera conjunta se consigan los conocimientos b asicos de las herramientas del analisis de
conabilidad.
La parte m as importante gira en torno a la revisi on que se har a para algunas funciones
de distribucion multivariadas tales como la distribuci on normal multivariada, exponencial,
Weibull y gamma multivariadas; as como su aplicaci on a la conabilidad mediante un
ejemplo caracterstico. La obtenci on de los estimadores de cada funcion de distribuci on se
realiza mediante el metodo de maxima verosimilitud, posteriormente se llevar a a cabo la
programaci on de estos mediante el Proyecto R
1
para an alisis estadstico.
Palabras clave: Conabilidad, An alisis de sobrevivencia multivariado normal multi-
variada, exponencial, Weibull, gamma, m axima verosimilitud.
1
http://cran.r-project.org
IV
Summary
Reliability theory has its foundations on purely statistical analyses and probabilistic
failure laws as there is no deterministic model that predicts the time at which a system
fails. It is possible, however, to apply a statistical treatment to model realistically the
study of the reliability of components or devices that in mounting conditions and proper
use are operating a given time t. Multivariate survival analysis or reliability analysis refers
to the multivariate models of the dierent times of multiple events that are recorded on
the same experimental unit.
In this work we explore the traditional techniques for analyzing reliability data, study-
ing both the theoretical and the applied part to achieve basic knowledge of reliability
analysis tools. The most important part focuses on a revision to be made for some multi-
variate distribution functions such as Normal, Exponential, Weibull and Gamma as well
as its application to reliability through a typical example.
The calculation of the estimates of each distribution function is accomplished using
the maximum likelihood method. Programing is conducted through the R Project for
Statistical Computing.
Key Works: Reliability, Multivariate survival analysis, Multivariate normal distribu-
tion, Weibull, exponential, gamma, Maximum likelihood.
V
Introduccion
Durante los ultimos cincuenta a nos, han habido cambios radicales en tecnologa, ad-
ministracion y mercado. Esto ha generado una revoluci on en el uso de metodos estadsticos
para mejorar la calidad de los productos y servicios. Una extensi on natural de lo que ha
pasado en el mundo de la calidad se maniesta en un cambio de enfoque hacia la mejora
de la conabilidad. En una forma pr actica, conabilidad se dene como calidad a traves
del tiempo. Los administradores, ingenieros y los mismos consumidores se han convenci-
do que buena conabilidad es una caracterstica indispensable para tener la oportunidad
de competir en los mercados globalizados, complejos y sosticados de hoy en da. Luis y
Sergio (2003)
De acuerdo a Meeker y Escobar (1998) conabilidad es la probabilidad de que una
unidad realice su funci on hasta un tiempo especicado bajo condiciones de uso determi-
nadas. Es importante que esta conabilidad sea evaluada a las condiciones ambientales o
de uso encontradas por el producto, en lugar de las condiciones de trabajo para las que
el producto fue dise nado.
Condra (1993) arma que un producto conable es aquel que hace lo que el usuario
quiere que haga cuando el usuario quiere que lo haga. De acuerdo con esto, la conabilidad
es calidad a traves del tiempo; por lo tanto, un producto conable debe permanecer dentro
de sus lmites de especicacion durante su vida tecnol ogica. Esto es, buena calidad es
necesaria pero no suciente para garantizar buena conabilidad.
Por otro lado, los tiempos de vida multivariados con frecuencia surgen en muchos cam-
pos como la medicina, la biologa, la salud p ublica, la epidemiologa, ingeniera, economa
y demografa. Por lo tanto, es de gr an interes considerar diferentes distribuciones multi-
variadas que pueden ser usados en los modelos de tiempos de vida, es por ello que sus
propiedades son de gr an interes para dicho prop osito. Adem as, el tiempo de vida de un
sistema viene determinado por sus componentes y estructura. La mayora de los sistemas
formados en la vida real son en serie y en paralelo, que son determinados por el trabajo
de todos o al menos uno de sus componentes, respectivamente.
La estadstica proporciona herramientas importantes para la evaluaci on, la mejora, el
VI
dise no, el pron ostico y el mantenimiento de la conabilidad. En este trabajo se pretende
hacer una revisi on bibliogr aca sobre las cuatro funciones de distribucion que se traba-
jar an, a decir, las distribuciones normal, exponencial, gamma y Weibull multivariadas.
Posteriormente se manejar an un conjunto de datos de tiempos de vida para realizar un
ajuste de un modelo mediante el Proyecto R.
VII
Planteamiento
La aparici on y aplicaci on de nuevas tecnologas en la industria hace posible la fa-
bricacion de nuevos productos y elementos, generalmente, electronicos que aumentan la
complejidad de los procesos industriales, este hecho trae como consecuencia el aumento
de riesgos que inuyen en la seguridad de, quiz a, toda la instalaci on.
La conabilidad y seguridad de dichas instalaciones puede ser estudiada a traves de
metodos probabilsticos, por medio de la ley de fallas de sistemas o componentes, que
permiten obtener tecnicas de prediccion que aseguran la calidad de los productos. La
eleccion de un modelo que represente los datos de fallas lo m as fehacientemente posible,
restringe la posibilidad de eleccion de cualquier funcion de densidad de probabilidad (fdp)
para T (tiempo aleatorio a la falla de una unidad), es decir, que el modelo matem atico o
estadstico para la descripci on de los fenomenos observables no es arbitrario.
Existen varias funciones de distribuci on que modelan el comportamiento de las fallas
tales como la exponencial, la Weibull, normal, gamma, etc. En este trabajo se hace un
estudio de dichas distribuciones ya que resultan ser las de uso mas frecuente en la teora de
la conabilidad. Se abordar a para el caso multivariado, con las distribuciones mencionadas
al inicio del p arrafo, puesto que en ocasiones no todos los componentes de una unidad o
sistema se distribuyen de la misma forma, por tal motivo es necesario conocer la manera
m as correcta de llevar a cabo su an alisis.
VIII
Objetivos
1. Realizar una revisi on bibliogr aco sobre las diversas caractersticas de algunas fun-
ciones de distribucion multivariadas tales como la normal, exponencial, gamma y la
Weibull multivariadas.
2. Obtener los estimadores por m axima verosimilitud de los par ametros de cada una
de estas funciones.
3. Obtener las funciones de conabilidad para cada una de las distribuciones a estudiar.
4. Programar en el Proyecto Estadstico R la funci on de conabilidad para el problema
que se propondra.
IX
Metodologa
La naturaleza del presente trabajo no exige experimentos pr acticos salvo los ejemplos
que se desarrollaran. De aqu que la metodologa consistir a, b asicamente, en revisi on bi-
bliogr aca.
Para cumplir con los objetivos planteados, el estudio se dividir a en cuatro captulos.
Inicialmente se presentar a un breve resumen del marco teorico sobre conceptos y resultados
de la conabilidad que se estar an utilizando en los siguientes captulos. De esta forma, para
cada una de las funciones de distribuci on se realizar a la revisi on de las estimaciones de los
par ametros mediante maxima verosimilitud, funci on de conabilidad para dicha funci on
de distribucion y aplicaciones a un problema de conabilidad. En la parte que comprende
la estimacion de par ametros s olo se realiza para la normal multivariada, pero para las otras
distribuciones se indica la forma en que se realizara, esto debido a que resulta complicado
hacerlo de forma manual ultilizando en ciertos casos metodos numericos.
En el seccion correspondiente a la aplicaci on se procecedera a realizar toda la progra-
maci on de la funci on de conabilidad en el Proyecto R y posteriormente se proceder a a
dar la explicaci on de los resultados que se obtengan.
Las razones por las que en el presente trabajo se decidio utilizar el Proyecto R para los
an alisis estadsticos, es porque resulta de gran utilidad y facilidad al manejo comparado
con otros tales; tales como SAS (Statistical Analysis Software)
2
, ademas de ser un software
de distribuci on gratuita es un programa muy completo y con este se consigue una mejor
comprension de los conceptos y de las herramientas en conabilidad.
2
http://www.sas.com
X
CAP

ITULO 1
Elementos de conabilidad
Lo que a continuaci on se explica es la teora de conabilidad para datos univariados
para posteriormente hacer una extensi on y aplicarlos con funciones multivariadas.
Sea T el tiempo aleatorio a la falla de una unidad (o componente). Aqu se usa el
tiempo en el sentido m as general, este puede ser tiempo real, tiempo de operaci on, horas
de vuelo, kil ometros o cualquier variable no negativa, tal como el n umero de revoluciones
a la falla. Antes de dar la denici on de conabilidad es conveniente recordar la denici on
de la funcion de distribuci on acumulada y de la funci on de densidad; las cuales dan una
descripcion completa de la distribuci on de probabilidad de una variable aleatoria. Tales
deniciones se daran para variables aleatorias continuas con soporte no negativo, debido
a que son el caso en el que se enfocara el presente trabajo, a excepcion de la distribuci on
normal.
Denici on 1.1. Si T es una variable aleatoria continua, entonces la Funci on de Densidad
de Probabilidad (fdp) de T es una funcion f
T
(t) tal que para dos n umeros cualesquiera,
a y b, a b:
p (a T b) =
_
b
a
f
T
(t) dt. (1.1)
As de la Denicion 1.1 se tiene que la probabilidad de que T tome valores en el
intervalo [a, b] es obtenida integrando la fdp sobre tal intervalo.
Suponga que la variable aleatoria T tiene funcion de densidad f
T
(t), entonces f
T
(t)
tiene las siguientes propiedades.
1. P (a < T < b) =
_
b
a
f
T
(t) dt.
2.
_
Dt
f
T
(t) dt = 1 donde D
t
representa el soporte de T.
3. f
T
(t) 0.
Denici on 1.2. La funcion de distribuci on acumulada (fda); es decir, la funci on de
1
distribuci on F
T
de una variable aleatoria T se dene como:
F
T
(t) = P (T t) para 0 t < . (1.2)
En otras palabras F
T
(t) denota la probabilidad de que la variable aleatoria T tome
valores menores o iguales a t. Algunas propiedades de F
T
(t) son:
1. F
T
es una funcion no decreciente; esto es, si a < b, entonces F
T
(a) F
T
(b) .
2. lm
t
F
T
(t) = 1.
3. lm
t0
F
T
(t) = 0.
4. F
T
es continua por la derecha, lo que signica que para cualquier b y cualquier
sucesion decreciente b
n
, con n 1, que converge a b, el lm
n
F
T
(b
n
) = F
T
(b) .
Cuando T es el tiempo de vida, F
T
(t) es la probabilidad de que un componente
seleccionado aleatoriamente de la poblaci on falle antes del tiempo t.
Entonces de las deniciones (1.2) y (1.1) se puede establecer la siguiente relaci on
Denici on 1.3. Relacion Matematica entre F
T
(t) y f
T
(t).
F
T
(t) =
_
t
0
f
T
(u) du (1.3)
y de forma an aloga
f
T
(t) =
d (F
T
(t))
dt
(1.4)
Para m as detalles de probabilidad se recomienda ver Ross (2006).
La funcion de conabilidad se dene de la siguiente manera.
Denici on 1.4. Conabilidad y Funci on de Conabilidad. Se dene la conabili-
dad de un componente R
T
(t), a la probabilidad de que dicho componente no falle durante
el intervalo [0, t], o lo que es lo mismo a la probabilidad de que falle en un tiempo mayor
que t.
R
T
(t) = P (T > t) = P (t < T < ) =
_

t
f
U
(u) du (1.5)
Algunos libros denotan a esta funci on como S (t)), y le llaman funcion de supervivencia.
2
A R
T
(t) se le puede expresar en funcion de la fda F
T
(t) = P (T t) como
R
T
(t) = 1 F
T
(t) . (1.6)
Para la funci on R
T
(t) se dene
1. 0 R
T
(t) 1.
2. R
T
(0) = 1, lm
t0
R
T
(t) = 1.
3. R
T
() = 0, lm
t
R
T
(t) = 0.
4. R
T
(t) no creciente.
5. R
T
(t) continua por la derecha. Es decir para cualquier b y cualquier sucesion decre-
ciente b
n
con n 1, que converge a b, el lm
n
R
T
(b
n
) = R
T
(b) .
Denici on 1.5. Funci on de Riesgo o Tasa de Falla. La tasa de falla, que se denota
por h
T
(t), se dene como la tasa instantanea de fallas en el tiempo t + t dado que la
unidad ha sobrevivido hasta el tiempo t, es decir,
h
T
(t) = lm
t0
P (t < T t + t|T > t)
t
= lm
t0
P (t < T t + t)
tP (T > t)
=
1
R
T
(t)
lm
t0
P (T < t + t) P (T t)
t
=
1
R
T
(t)
lm
t0
F
T
(t + t) F
T
(t)
t
=
d
dt
F
T
(t)
R
T
(t)
=
f
T
(t)
R
T
(t)
(1.7)
Para interpretar h
T
(t) se supone que una unidad (o componente) ha funcionado hasta
el tiempo t y se desea conocer la probabilidad de que tal componente falle hasta el tiempo
t. Considere P (t < T t + t|T > t). Entonces, para t peque no
P (t < T t + t|T > t) =
P (t < T t + t, T > t)
P (T > t)
=
P (t < T t + t)
P (T > t)
=
f
T
(t) t
P (T > t)
(1.8)
3
Por lo tanto, h
T
(t) representa la fdp de que una unidad que ha operado exit osamente
hasta el tiempo t fallar a. Es decir, h
T
(t) t representa la probabilidad de que una unidad
falle en un intervalo peque no de tiempo (t, t). La importancia de la tasa de falla radica en
ser un indicador de la tasa de cambio en la conducta de envejecimiento de una poblaci on
de componentes.
Resultado 1.1. Propiedades de la Tasa de Falla
1. h
T
(t) 0.
2.
_

0
h
T
(t) = 1.
Resultado 1.2. Casos Tpicos de la Tasa de Falla h
T
(t)
1. h
T
(t) constante. Cuando se tiene una tasa de falla constante, se dice que la unidad
no mejora ni empeora con el tiempo, esto es, la probabilidad de falla instant anea es
la misma en cualquier momento y consecuentemente el proceso no tiene memoria,
ya que la posibilidad de falla estando funcionando, es identica en cualquier momento
de la vida del componente.
2. Tasa de Falla Creciente. Surge, en la mayora de los casos por desgastes y fatigas
es decir por un proceso de envejecimiento. La tasa de falla creciente indica que la
probabilidad de falla inmediata, teniendo en cuenta que el componente est a funcio-
nando, se incrementa a medida que pasa el tiempo. Evidentemente, a medida que
un componente se hace mas viejo, su tasa de falla tendera a crecer.
3. Tasa de Falla Decreciente. Se presenta en unidades que mejoran con el tiempo, es
decir cuya probabilidad de fallas es menor cuando aumenta el tiempo de super-
vivencia.

Esto aparece a menudo en cualquier tipo de materiales: al principio de su
funcionamiento la probabilidad de falla es alta debido a la existencia de posibles
defectos ocultos. Este tipo de tasa de falla aparece muy a menudo en estudios clni-
cos de supervivencia a intervenciones quir urgicas: el riesgo disminuye a medida que
transcurre el post-operatorio. Otros ejemplos son las valvulas de centrales nucleares,
aviones, mecanismos de seguridad, etc.
4. Tasa de Falla con Forma de Ba nera. Es una generalizaci on de los procesos anteriores.
Inicialmente tiene tasa de falla decreciente pero a medida de que transcurre el tiempo
4
las fallas son casi constantes y nalmente con probabilidad de fallas que aumentan
con la edad, o crecientes.
El estudio de las tasas de falla resulta un caso muy interesante para obtener los peri odos
de garanta de los productos que oferta una empresa.
Figura 1: Curva de ba nera
Denici on 1.6. Funci on de Tasa de Falla acumulada. A la funcion H () se le lla-
ma tasa de falla acumulada y se dene como:
H
T
(t) =
_
t
0
h(u) du. (1.9)
El tiempo medio hasta que falla la unidad se dene como sigue:
Denici on 1.7. Tiempo Medio a la Falla(TMF). Sea T la variable aleatoria que
representa el tiempo de la falla de la unidad, entonces el TMF es
TMF = E (T) =
_

0
tf
T
(t) dt. (1.10)
5
1.1. Tipos usuales de datos en conabilidad
En el analisis de datos se requiere usar todos los que se tengan disponibles, pero en
el analisis de datos de vida frecuentemente ocurre que tales datos tienen el problema
de que estan incompletos o incluyen la incertidumbre respecto a cuando ocurri o la falla.
Para lograr esto, los datos de vida al respecto se clasican en categoras: completos o no
censurados (toda la informaci on esta disponible) y censurados (parte de la informaci on
esta perdida). En esta seccion se detallan estos metodos de clasicaci on de datos.
Denici on 1.8. Un dato (u observaci on) t se dice que es completo si representa el tiempo
exacto en el que ocurrio la falla de una unidad (tiempo de vida).
Note que para tener datos completos es necesaria una observaci on constante de las
n unidades puestas a prueba y adem as, el experimento naliza cuando falla la ultima
unidad, siendo esto algunas veces una de las desventajas. Pero cabe mencionar que son
los m as faciles de analizar.
En muchos casos cuando los datos de vida son analizados, todas las unidades en la
muestra podran no haber fallado (es decir, el evento de interes no fue observado) o los
tiempos exactos de vida (tiempos en que ocurrieron las fallas) de las unidades no son
todos conocidos. Este tipo de datos son llamados comunmente datos censurados. Hay tres
tipos posibles de esquemas de censura, censura por la derecha (tambien llamados datos
suspendidos), censura por intervalo y censura por la izquierda, los cuales son denidos a
continuaci on.
Denici on 1.9. Censura por la derecha. El caso mas com un de censura es conocido
como censura por la derecha. Este tipo de censura ocurre cuando el tiempo exacto de vida
(t) de una unidad no es observado, pero se conoce que excede un cierto tiempo, por decir
t
+
(Ver gura 2). Este tipo de datos puede surgir cuando la prueba naliza antes de la falla
de todas las unidades.
Figura 2: Censura por la derecha
6
Denici on 1.10. Censura por intervalos. El segundo tipo de censura es llamado cen-
sura por intervalos. En este caso se desconoce el tiempo exacto en que ocurre la falla de
una unidad, la unica informaci on que se tiene es que la unidad falla en cierto intervalo
de tiempo, por decir (t
+
,
+
t)(Ver gura 3).
As, datos censurados por intervalos reejan incertidumbre respecto al tiempo exacto
en que las unidades fallaron dentro de un intervalo. Este tipo de datos frecuentemente viene
de pruebas o situaciones donde los objetos de interes no son monitoreados constantemente.
Por ejemplo, si se corre una prueba sobre cinco unidades y se inspeccionan cada 100
horas, solamente se sabra si una unidad fall o o no fall o entre las inspecciones. Mas especi-
camente, si se inspecciona cierta unidad a las 100 horas y se encuentra que est a operando
y luego al realizar otra inspecci on a las 200 horas se encuentra que ya no est a funcionando,
entonces solo se sabra que tal unidad fall o en el intervalo que comprende 100 y 200 horas.
Figura 3: Censura por intervalo
Denici on 1.11. Censura por la izquierda. El tercer tipo de censura es similar a la
censura por intervalos y es llamado censura por la izquierda. Este tipo de censura se tiene
cuando solamente se sabe que el tiempo exacto t a la falla, de una unidad ocurri o antes
de un cierto tiempo, digamos
+
t (Ver gura 4).
As, en datos censurados, por la izquierda, por ejemplo, se puede conocer que cierta
unidad fall o antes de las 100 horas pero no exactamente cuando. En otras palabras, tal
unidad podra haber fallado en alg un tiempo entre 0 y 100 horas. Esto es identico a datos
censurados por intervalos en los cuales el tiempo de inicio del intervalo es cero.
Figura 4: Censura por la izquieerda
7
Los tres tipos de censura pueden ser tratados de una forma sencilla siempre que el
mecanismo de censura sea independientemente de los tiempos de vida de las unidades.
As, un posible mecanismo de censura, conocido como mecanismo tipo I, es poner n
unidades a prueba y observarlas por un periodo de tiempo (c) jado de antemano. De este
modo, el i-esimo tiempo T
i
(i = 1, 2, ..., n) es observado si T
i
c, de otra manera s olo se
conoce que T
i
> c.
Este tipo de censura puede ser tratado f acilmente. Sin embargo, suponga que n unidades
fueron puestas a prueba y que cada unidad fue observada hasta que el experimentedor
estuvo seguro de que la unidad estaba pr oxima a fallar. Si la visualizaci on del observador
es basada sobre alg un conocimiento y no es suposici on, entonces por s mismo el mecan-
ismo de censura contiene informacion acerca de los tiempos de interes. Por ejemplo, bajo
este mecanismo si T
i
es censurado por la izquierda en c
i
, entonces adem as de conocer que
T
i
> c
i
se sabe algo m as: que T
i
= c
i
+
i
donde
i
es alguna variable aleatoria con media y
varianza peque na (la peque nez de las cuales depende de la experiencia del observador).
Por lo tanto, bajo este esquema una unidad de censura en c
i
no sera representativa de
todas aquellas unidades que han sobrevivido c
i
o m as unidades de tiempo.
Una forma com un de censura por la derecha en estudios de conbilidad es la censura
tipo II. Aqu la observaci on se detiene depues de que ocurre un n umero de fallas, especi-
cado de antemano. En otras palabras, se ponen n unidades a prueba y se decide, con
anticipaci on, que la prueba nalizar a cuando ocurra la k-esima falla (k n). Note que el
tiempo de censura por la derecha, de la prueba (o tiempos, si las unidades puestas a prue-
ba inician en diferente tiempo) no es (son) conocido(s) con anticipaci on. Otras formas m as
complicadas de censura por la derecha pueden surgir, pero estas pueden ser manejadas
con regularidad siempre que cualquier unidad con tiempo de vida que este censurado por
la derecha en c
i
sea representativa de todas las unidades cuyos tiempos de vida exceden
c
i
.
Para ver de una forma m as extensa y desarrollada la teora de conabilidad univariada
se recomienda ver Montesinos (2009).
8
1.2. La ley normal de Falla
La conducta de algunos componentes puede describirse a traves de la ley normal de
falla. Si T es la duracion de un artculo, que obviamente se considerar a que es mayor o
igual a cero, su fdp tambien conocida como distribuci on de Gauss, esta dada por
f
T
(t) =
1

2
exp
_

1
2
_
t

_
2
_
(1.11)
siendo f
T
(t) 0, < t < , < < , > 0
Este modelo implica que la mayoria de los artculos fallan alrededor de un tiempo
promedio de falla E [T] = y el n umero de fallas disminuye simetricamente cuando
|T | aumenta. Una ley normal de falla signica que alrededor del 95.44 % de las fallas
tienen lugar para los valores de t que satisfacen
_
2 <
t

< 2
_
como se observa en la
gura 5.
Figura 5: El area entre 2 y + 2 representa alrededor del 94.44 % de las fallas
Se puede ver que la distribucion normal es simetrica; por lo tanto la media, la mediana
y la moda coinciden. El par ametro que indica la relaci on de aspecto de una fdp normal
esta dada por la desviaci on estandar, , a medida que este valor incrementa, la fdp se
desparrama del valor medio, se ensancha y su pico disminuye. Por el contrario, si el
valor de disminuye, el pico de la campana se vuelve m as alto y adem as se angosta.
Geometricamente la desviaci on estandar es la distancia entre el valor medio y el punto de
inexi on de la fdp.
9
Figura 6: Efecto de dos posibles valores del par ametro en la funcion de distribuci on de
probabilidades de la normal
1.2.1. Funci on de Conabilidad de la ley Normal de Falla
La funcion de conabilidad de la ley normal de falla se puede hallar utilizando la
denicion de conabilidad dada en (1.5)
R
T
(t) =
_

t
f
U
(u) du =
_

t
1

2
exp
_

1
2
_
u

_
2
_
du (1.12)
Su valor no puede obtenerse a traves de expresiones matem aticas cerradas sino va el
uso de tablas o evaluaciones numericas.De esta forma si se usa la funci on de distribuci on
normal acumulada tabulada se tiene que:
R
T
(t) = 1
_
t

_
(1.13)
es decir que, R
T
(t) permite aclarar conceptualmente que para obtener una conabilidad
alta, el tiempo de operaci on debe ser considerablemente menor que , en otras palabras,
10
la duraci on esperada debe ser como en la gura 6.
Figura 7: Funci on de conabilidad de la ley normal de falla.
La ley normal de fallas representa un modelo apropiado para los componentes en los
cuales la falla se debe a algunos efectos de desgaste. Con esta distribucion tambien se
pueden modelar fenomenos cuyo tiempo de vida se extiende a , es decir a tiempos
de falla negativos; pero como ya se mencion o inicialmente, en este trabajo s olo se tomar a
la parte con soporte positivo. Una caracterstica interesante de la normal es que tiende
r apidamente a cero lejos de su m aximo. Esta distribuci on se utiliza, por ejemplo, para
modelar los tiempos de vida de los cartuchos de impresi on para computadoras.
11
1.3. La ley Exponencial de Falla
Otra de las leyes de falla aplicable al estudio de la conabilidad de componentes que
no estan afectadas todava por problemas de vejez o desgaste, es aquella que se describe
a traves de la distribucion exponencial.
Los elementos y dispositivos con funciones primordiales de seguridad; adem as, de ser
idoneos ante las exigencias del sistema, deben asegurar una correcta respuesta en el tiem-
po. Para ello es imprescindible establecer un programa de mantenimiento preventivo y
predictivo que permita matenerlos en buenas condiciones de uso, renov andolos antes de
que su tasa de fallas sea inaceptable. Un modelo estadstico para la probabilidad de fallas
es denir la variable aleatoria como el tiempo en el que el elemento funciona satisfactori-
amente antes de que se produzca la falla. La funci on de conabilidad ser a entonces,
R
T
(t) = P (T > t) =
N
i
(t)
N
0
= 1
N
f
(t)
N
0
(1.14)
siendo, N
i
(t) el n umero de elementos en funcionamiento en el instante t, N
0
el n umero
de elementos en funcionamiento inicial y N
f
(t) el n umero de elementos averiados en el
momento t (se cumple N
0
= N
f
(t) + N
i
(t)).
Por lo tanto, recurriendo a la ecuaci on (1.5) y haciendo la analoga con la ec.(1.14), la
probabilidad de que ocurra una falla antes del instante t es,
F
T
(t) =
N
f
(t)
N
0
. (1.15)
Suponiendo que un artculo funciona en el instante t y falla durante los siguientes
t (t > 0), entonces la probabilidad condicional de que se produzca una avera entre el
momento t y t + t puede escribirse de la siguiente manera,
P (t T t + t|T > t) =
F
T
(t + t) F
T
(t)
R
T
(t)
=
R
T
(t) R
T
(t + t)
R
T
(t)
= h(t) t,
(1.16)
siendo h(t) la tasa de fallas.
De la ec. (1.16) es posible hallar el valor de la funci on de conabilidad,
12
R
T
(t) = exp
_

_
t
0
h(t) dt
_
. (1.17)
Recurriendo a la ecuacion (1.5), la funci on de densidad de probabilidad, es decir, la
probabilidad de que un dispositivo tenga una falla entre los instantes t y t + t es
f
T
(t) =
dR
T
(t)
dt
. (1.18)
Analizando las ecuaciones (1.16) y (1.18), se cumple que la probabilidad de producirse
una avera en un elemento entre t y t +t es igual a la probabilidad de que funcione hasta
t por la probabilidad de que falle entre t y t + t:
f
T
(t) = R
T
(t) h(t) t. (1.19)
El caso mas sencillo para describir la ley exponencial es suponer que la tasa de fallas
es constante; es decir, que despues de un tiempo de uso del artculo, la probabilidad de
que falle no ha cambiado, hecho que se puede expresar a traves de la siguiente funcion:
h(t) =
1

0
. En este modelo, claramente se est a despreciando el efecto de desgaste. La fdp
asociada con el tiempo de falla T esta dado por
f
T
(t) =
1

0
e
t/
0
, t 0,
0
0. (1.20)
En este caso particular, la distribuci on exponencial solo requiere el conocimiento de
un par ametro, la tasa de fallas
1

0
.
1.3.1. Funci on de Conabilidad de la Ley Exponencial de Falla
Si f tiene la forma expresada en (1.20)
R
T
(t) = 1 F
T
(t) = e
t/
0
h(t) =
f
T
(t)
R
T
(t)
=
1

0
. (1.21)
La conabilidad R
T
(t) representa, en este caso, la probabilidad de que el dispositivo,
caracterizado por una tasa de fallas constante, no se avere durante el tiempo de fun-
cionamiento t. Es importante destacar que la f ormula (1.21) se aplica a todos los elementos
13
que han sufrido un uso adecuado que permita excluir las fallas iniciales caracterstica de
la tasa de fallas. Ademas, aplicando (1.16) se observa que la misma es independiente de t
y s olo depende de t; es decir, que el artculo en cuestion podr a ser considerado como si
fuera nuevo mientras perdure su funcionamiento.
1.3.2. Tiempo Medio a la Falla (TMF)
Matematicamente se recurre a un c alculo estadstico para obtener una expectativa de
este tiempo a partir de la siguiente expresi on:
E (T) =
_

0
tf
T
(t) dt =
0
(1.22)
siendo T el tiempo que se espera que transcurra hasta una falla. Se observa entonces que
el tiempo medio a la falla y la tasa de falla son recprocos. Esto solo es cierto para una
distribucion exponencial, puesto que la mayora del resto de las distribuciones no tiene
una tasa de fallas constante.
Finalmente, es posible concluir que si T es una variable aleatoria continua que toma
todos los valores no negativos, le corresponde una distribuci on exponencial si y solo si
tiene una tasa constante de fallas.
Este modelo es aplicable, por ejemplo, a las l amparas que pueden considerarse que
funcionan como si fueran nuevas mientras funcionen y no se queme su resistencia.
14
1.4. La ley de Fallas de Weibull
La distribuci on estadstica Weibull es aplicable al estudio de la conabilidad en pro-
blemas a la fatiga y vida de componentes y materiales. Se caracteriza por considerar la
tasa de fallas variable y es de la forma:
h(t) =
_

__
t

_
1
(1.23)
donde T es la duracion de un artculo, es el parametro de escala y el par ametro de
forma, ambas son constantes positivas. determina la forma de la funci on de distribuci on
y de la tasa de fallas.
Se puede ver que h(t), llamada tambien funcion de riesgo o tasa de falla, no es una
constante sino que es proporcional a las potencias de t. Sera una funcion constante cuando
= 1, creciente si > 1; es decir, que al aumentar t la proporci on de artculos defectuosos
aumenta en forma continua, lo que indica que los desgastes empiezan en el momento en el
que el mecanismo se pone en funcionamiento; o decreciente si 0 < < 1, es decir que al
aumentar t la proporci on de artculos defectuosos disminuye sin llegar a cero, por lo que
se puede suponer que corresponde a la etapa de juventud del componente con un margen
de seguridad bajo, dando lugar a fallas por tensi on de rotura. Luna (2005)
Si la fdp de T tiene la siguiente forma
f
T
(t) =
_

__
t

_
1
e
(
t

, t > 0 (1.24)
se dice que la variable aleatoria tiene una distribuci on Weibull.
1.4.1. Funci on de Conabilidad de la ley de fallas Weibull
La funcion de conabilidad R
T
(t) es una funci on decreciente de t:
R
T
(t) = e
(
t

(1.25)
Una de las posibles aplicaciones de la distribucion Weibull ha sido el estudio de las
variaciones de los vientos de un determinado sitio. Dicho an alisis ha sido de gran utilidad
15
para los dise nadores de turbinas quienes utilizaron dichos resultados con el n de mini-
mizar los costos. Se debe tener en cuenta que la velocidad del viento vara seg un el lugar
donde se realicen la mediciones, depende, ademas, de las condiciones locales del clima, del
terreno y de su supercie; por lo tanto, la distribuci on Weibull variar a no s olo en forma
sino tambien en el valor medio. Esta funci on tambien se ha usado en Ciencias Biologicas
para estudiar supervivencia a las bacteriemias y el c ancer g astrico, as como en el area
forestal para modelar la estructura de edades de un arbolado.
1.5. Ley de Fallas Gamma
Si una variable aleatoria T tiene tiene como fdp a
f
T
(t) =

t
1
exp (t)
()
, t 0 (1.26)
donde > 0 (par ametro de forma) y > 0 ((1/) par ametro de escala), entonces T tiene
distribuci on Gamma y se denota Gamma (, ). () es la funci on gamma.
Note que si = 1, se tiene la distribuci on exponencial con par ametro .
Para una distribucion Gamma (, ), la funci on de distribuci on acumulada F
T
(t), y
en consecuencia la funcion de conabilidad R
T
(t), en general no pueden escribirse en
forma cerrada, pero si se puede cuando es un entero positivo, como lo revela el siguiente
resultado.
Resultado 1.3. Si T Gamma (, ), donde es un entero positivo, entonces
F
T
(t) = 1
1

j=0
e
t
(t)
j
j!
(1.27)
R
T
(t) =
1

j=0
e
t
(t)
j
j!
(1.28)
En Luna (2005) se hace un an alisis mas detallado de las leyes de falla de una manera
mas extensa.
16
1.6. Conabilidad en sistemas
A continuaci on se presentan dos maneras mas sencillas de combinar unidades indi-
viduales en un sistema y el tratamiento de sus respectivas conabilidades. Para que un
sistema de n componentes independientes acoplados en serie funcione, todos los compo-
nentes deben funcionar. Por lo tanto, si uno falla, el sistema no funciona. En consecuencia,
la conabilidad del sistema es menor que la conabilidad de cualesquiera de sus compo-
nentes, siendo la funcion de conabilidad del sistema completo,
R
T
(t) = R
1
(t) R
2
(t) ...R
n
(t) =
n

i=1
R
i
(t) . (1.29)
En el caso de que los componentes esten conectados en paralelo, el sistema deja de fun-
cionar s olo si todos los componentes dejan de funcionar; suponiendo que los componentes
funcionan independientemente.
La conabilidad de este sistema ser a mayor que cualesquiera de los componentes siendo
la funcion de conabilidad del sistema completo,
R
T
(t) = 1 [1 R
1
(t)] [1 R
2
(t)] ... [1 R
n
(t)] = 1
n

i=1
(1 R
i
(t)) . (1.30)
por la sencilla raz on de que el acomplamiento en paralelo aumenta la conabilidad del
sistema; as entonces la operaci on en paralelo es de uso m as frecuente.
Es posible denir una nueva variable denominadafactor de seguridad, que fsicamente
representa la relaci on entre la resistencia de una estructura y la fuerza aplicada a la misma.
Si el cociente es menor a 1, la estructura fallar a.
1.7. Funci on de Verosimilitud para Distribuciones Multivari-
adas
Primero suponga que se tienen T
1
, ..., T
k
(tiempos de vida) variables asociadas a una
unidad. Si se denota la funci on conjunta de densidad de probabilidad como f
T
1
,...,T
k
(t
1
, ..., t
k
)
17
y las funciones de conabilidad y de distribuci on, respectivamente como:
R
T
1
,...,T
k
(t
1
, ..., t
k
) = Pr(T
1
t
1
, ..., T
k
t
k
) (1.31)
F
T
1
,...,T
k
(t
1
, ..., t
k
) = Pr(T
1
t
1
, ..., T
k
t
k
) (1.32)
para t
1
0, ..., t
k
0. Los modelos de tiempo continuos se expresan de la siguiente
manera.
f
T
1
,...,T
k
(t
1
, ..., t
k
) =
(1)
k

k
R
T
1
,...,T
k
(t
1
, ..., t
k
)
t
1
, ...., t
k
(1.33)
Sean T
1i
, ..., T
ki
funciones de vida continuas. R
T
1
,...,T
k
(t
1
, .., t
k
) como en (1.31). Suponga
que los tiempos de vida de una muestra aleatoria de tama no n son censurados por la
derecha. Con tiempos potenciales de censura C
ji
(j = 1, ..., k) asociados con T
ji
. Se puede
asumir que (C
1i
, ..., C
ki
) son independientes de (T
1i
, ..., T
ki
). Note que C
1i
, ..., C
ki
estan
relacionados; en los casos en donde todos los tiempos de vida del grupo est an sometidos
al mismo tipo de censura, estos pueden ser iguales. Se observa que los datos del grupo
i incluyen los tiempos (t
1i
, ..., t
ki
), donde t
ji
= mn (T
ji
, C
ji
) con indicadores de censura
(
1i
, ...,
ki
) donde
ji
= l (T
ji
, C
ji
).
Para mantener la notaci on y hacer la discusion m as sencilla, se realizo lo siguiente s olo
para tiempos de vida bivariados (T
i1
, T
i2
). Una observaci on puede ser de cuatro tipos, dado
que T
1j
y T
2j
pueden ser censurados o no. La funci on de verosimilitud toma la siguiente
forma:
L =
n

i=1
f (t
1i
, t
2i
)

1i

2i
_
R(t
1i
, t
2i
)
t
1i
_

1i
(1
2i
)
_
R(t
1i
, t
2i
)
t
2i
_
(1
1i
)
2i
R(t
1i
, t
2i
)
(1
1i
)(1
2i
)
.
(1.34)
donde f(t
1
, t
2
) es la funcion de densidad de probabilidades para (T
1
, T
2
).
Cuando los datos son completos, la variable indicadora de censura
1i
y
2i
toman el
valor de 1 y s olo se utiliza la primera expresi on de la ecuacion.
L =
n

i=1
f (t
1i
, t
2i
)

1i

2i
.
Pero si t
1
es completo y t
2
es censurado (
2i
) = 0 s olo se utilizar a la segunda expresion
18
puesto que las otras se reducen a 1.
L =
_
R(t
1i
, t
2i
)
t
1i
_

1i
(1
2i
)
.
Cuando t
1
es el censurado por la derecha y t
2
completo s olo queda la tercera expresi on.
L =
_
R(t
1i
, t
2i
)
t
2i
_
(1
1i
)
2i
.
As cuando los datos son censurados por la derecha, la expresi on que se maneja es la
ultima de la ecuaci on.
L = R(t
1i
, t
2i
)
(1
1i
)(1
2i
)
.
19
CAP

ITULO 2
Distribuci on Normal Multivariada
Un proceso opera en condiciones normales, si tiene los materiales dentro de especica-
ciones y del mismo lote, un metodo consistente, un medio ambiente adecuado, el operador
capacitado, y el equipo ajustado correctamente, si se toman mediciones en alguna carac-
terstica del producto. La distribuci on normal es una de las distribuciones m as usadas e
importantes y se ha desenvuelto como una herramienta indispensable en cualquier rama
de la ciencia, la industria y el comercio Johnson y Wichern (1998).
La distribuci on normal es llamada tambien campana de Gauss por su forma acampana-
da. La generalizaci on de las familias de densidades que tienen forma de campana, como
es el caso de la normal, pero para dos o m as dimensiones juegan un papel fundamental
en el analisis multivariado.
Los datos que se trabajan en una investigaci on o experimento rara vez tienen un
comportamiento normal, por este motivo la densidad normal multivariada se usa para
aproximarse a la verdadera distribuci on de nuestra poblaci on. Una ventaja de esta dis-
tribucion es que matematicamente es tratable y con ella se pueden obtener resultados m as
manejables que si se usan otras distribuciones.
Muchos eventos reales y naturales tienen una distribuci on de frecuencias cuya forma es
muy parecida a la distribuci on normal. Existen situaciones en las cuales se presenta m as
de una variable distribuida normalmente y es necesario analizarlas simult aneamente para
as poder capturar sus eventuales relaciones. Para esto la distribuci on normal se extiende
a su caso vectorial.
Denici on 2.1. Se dice que las variables X
1
, ..., X
n
poseen una distribuci on normal mul-
tivariada si su funci on de distribuci on de probabilidades es:
f(x) =
1
(2)
p/2
||
1/2
exp
_
1
2
(x )

1
(x )
_
(2.1)
entonces
X N
n
(, )
20
La densidad normal multivariada es una generalizaci on de la densidad normal uni-
variada para p >2 dimensiones.
El termino
_
x

_
2
= (x )
_

2
_
1
(x ) (2.2)
en el exponente de la funcion de densidad normal univariada determina el cuadrado de la
distancia de x a en unidades de desviaci on estandar, es decir cuanto diere el dato de
su media.

Esta puede generalizarse por un vector x de observaciones de p variables como
(x )

1
(x ) (2.3)
El vector de dimension p, representa el valor esperado del vector aleatorio X y la
matriz de dimension p p representa la matriz de varianzas-covarianzas de X. En este
caso se asume que la matriz es positiva denida.
Ciertas propiedades de la normal multivariada resultan necesarias, tales propiedades
hacen posible una facil manipulaci on de los resultados que se obtengan. A continuaci on,
se enumeran considerando que el vector X tiene una distribuci on normal multivariada:
1. Una combinaci on lineal de los componentes de X tambien son normalmente dis-
tribuidas.
2. Todos los subconjuntos de los componentes de X tienen una distribucion normal
multivariada.
3. Una covarianza cero implica que los correspondientes componentes son independi-
entes.
4. La distribuci on condicional de los componentes de X son normales (multivariadas).
Resultado 2.1. Si X se distribuye N
p
(, ) entonces la combinacion lineal de las vari-
ables a

X = a
1
X
1
+ a
2
X
2
+ ... + a
p
X
p
se distribuye como N
p
_
a

, a

a
_
. Tambien si
a

X se distribuye como N
_
a

, a

a
_
para cada a, entonces X tiene una distribuci on
N
p
(, )
Resultado 2.2. Si X se distribuye como N
p
(, ) las q combinaciones lineales
21
A
(qp)
X
(p1)
=
_

_
a
11
X
1
+ a
1p
X
p
a
21
X
1
+ a
2p
X
p
.
.
.
.
.
.
.
.
.
a
q1
X
1
+ a
qp
X
p
_

_
(2.4)
se distribuyen N
q
_
A, AA

_
. Tambien X
(p1)
+ d
(p1)
, donde d es un vector de constantes
y se distribuye tambien como N
p
( +d, )
Resultado 2.3. Todos los subconjuntos de X son normamente distribuidos. Si se parti-
ciona respectivamente a X; su vector de medias y su matriz de varianzas y covarianzas
ser a:
X
(p1)
=
_
X
1
(q1)
X
2
((pq)1)
_

(p1)
=
_

1
(q1)

2
((pq)1)
_
y

(pp)
=
_

11
(qq)

12
(q(pq))

21
((pq)q)

22
((pq)(pq))
_
entonces X
1
se distribuye como N
q
(
1
,
11
) .
Teorema 2.1. Sea X que se distribuye N
p
(, ) y dena a como un vector de constantes
y A una matriz de constantes de dimensi on q p con rango q p. Entonces
i) Z = a

X es N
_
a

, a

a
_
y
ii) Z = AX es N
q
_
A, AA

_
Prueba 1. i). La funcion generatriz de momentos para Z = a

X esta dada por


M
Z
(t) = E
_
e
tZ
_
= E
_
e
_
ta

X
_
_
= E
_
e
(ta)

X
_
= e
(ta)

+(ta)

(ta)/2
= e
_
a

_
t+
_
a

a
_
t
2
/2
(2.5)
De aqu se concluye que Z = a

X es una normal univariada con media a

y varianza
a

.
22
ii). La funcion generatriz de momentos para Z = AX esta dada por
M
Z
(t) = E
_
e
t

Ax
_
= E
_
e
t

Ax
_
(2.6)
que se puede expresar como
M
Z
(t) = e
t

(A)+t

_
AA

_
t/2
La matriz de covarianzas de AA

es denida positiva porque A es de rango completo.


De este modo Z = AX tiene distribuci on N
q
_
A, AA

_
2.1. Estimaci on de Parametros en la Distribuci on Normal Mul-
tivariada
Se obtendr an los estimadores de maxima verosimilitud para y en la seccion 2.1.1
y se considerar an sus propiedades en la seccion 2.1.2.
2.1.1. Metodo de Maxima Verosimilitud
Asuma que se tienen n vectores de dimension p, X
1
, X
2
, ..., X
n
y representan una
muestra aleatoria de una poblaci on normal multivariada con vector de medias y ma-
triz de covarianzas . Supongase que X
1
, X
2
, ..., X
n
son independientes y que cada uno
tiene distribuci on N
p
(, ). La densidad conjunta X
1
, X
2
, ..., X
n
es llamada funci on de
verosimilitud. Los estimadores de maxima verosimilitud son los valores de los par amet-
ros (en funcion de X
1
, X
2
, ..., X
n
) que maximizan la funci on de verosimilitud. Si se en-
cuentran los estimadores de m axima verosimilitud para y de una muestra aleatoria
proveniente de una distribuci on normal multivariada Alvin (1998).
Resultado 2.4. Si X
1
, X
2
, ..., X
n
es una muestra aleatoria de una normal N
p
(, )
entonces los estimadores de maxima verosimilitud para y son
= x

=
1
n
n

i=1
(x
i
x) (x
i
x)

=
1
n
W =
n 1
n
S,
23
donde W =
n

i=1
(x
i
x) (x
i
x)

.
Prueba 2. Se sabe que las X

s son independientes (porque surgen de una muestra aleato-


ria) entonces la funci on de verosimilitud (densidad conjunta) es el producto de las densi-
dades de las X

s
L(, ) =
n

i=1
f (x
i
; , )
=
n

i=n
1
_
2
_
p
||
1/2
e
(x
i
)

1
(x
i
)/2
=
1
_
2
_
np
||
n/2
e
(x
i
)

1
(x
i
)/2
(2.7)
La notacion L(, ) se usa porque se considera que x
1
, ..., x
n
es una muestra de la
cual ya se tena un conocimiento previo. Entonces de la muestra x
1
, ..., x
n
se buscan los
valores de y que maximizan a la funcion anterior. En seguida se procede a expresar
a la ecuacion anterior de una forma en que se facilite encontrar el m aximo.
El termino (x
i
)

1
(x
i
) es igual a
(x
i
x)

1
(x
i
x) + ( x )

1
( x ) + 2 ( x )

1
(x
i
x) .
Realizando la suma sobre los terminos i = 1, ..., n se tiene:
n

i=1
(x
i
)

1
(x
i
) =
n

i=1
(x
i
x)

1
(x
i
x) + n( x )

1
(x
i
x) .
Ahora
n

i=1
(x
i
)

1
(x
i
) =
n

i=1
tr
_
(x
i
)

1
(x
i
)
_
= tr
_

1
n

i=1
(x
i
)
_
_
(x
i
)

_
.
24
Entonces sumando y restando x se tiene:
n

i=n
(x
i
) (x
i
)

=
n

i=1
(x
i
x + x )
n

i=1
(x
i
x + x )

=
n

i=1
(x
i
x) (x
i
x)

+ n( x ) ( x )

= W + n( x ) ( x )

.
Finalmente, se obtiene
L(, ) =
1
_
2
_
np
||
n/2
e
tr
1
_
W+n( x)( x)

_
/2
. (2.8)
Se preere trabajar con el logaritmo de L, ln L, porque es una forma sencilla para
derivarla:
ln L(, ) = np ln

2
n
2
ln ||
1
2
tr
1
_
W + n( x ) ( x )

_
= np ln

2
n
2
ln ||
1
2
tr
_

1
W
_

n
2
( x )

1
( x )
(2.9)
Para obtener el estimador de m axima verosimilitud se deriva (2.9) con respecto a e
igualando el resultado a cero.
L(, )

= 0 0 0 + n
_

1
x
1

_
= 0
dando
= x (2.10)
Esta claro que = x maximiza L(, ) con respecto a , porque el ultimo termino
de (2.9) es 0 y por lo tanto, este termino se elimina cuando = x
Ahora antes de derivar respecto a primero se realiza la sustituci on de = x en 2.9
y reescribiendo ln || en terminos de
1
se obtiene.
ln L( , ) = np ln
_

2
_
+
n
2
ln

1
2
tr
_

1
W
_
. (2.11)
Usando los siguientes resultados.
25
Resultado 2.5. Para la tr(AB) donde A es una matriz simetrica se tiene
tr(AB)
A
= B+B

diag(B)
Para ln |A| donde A es simetrica y no singular, la derivada esta dada por:
ln |A|
A
= 2A
1
diag(A
1
)
y ahora derivando 2.11 respecto a
1
entonces resulta:
ln L( , )

1
= 0 + n
n
2
diag () W +
1
2
diag (W) = 0 (2.12)

1
2
diag
_

_
=
1
n
_
W
1
2
diag (W)
_
(2.13)
entonces

=
1
n
W (2.14)
Note que

= W/n es la solucion a (2.13). Para los elementos fuera de la diagonal se
tiene
jk
= w
jk
/n, j = n, y para los elementos de la diagonal,
jj
/2 = w
jj
/2n.
Se resolvio (2.13) para en lugar de
1
. Aunque se pudo derivar con respecto a

1
, en este caso el estimador encontrado sera (W/n)
1
como un estimador de m axima
verosimilitud para
1
. As se ilustra la propiedad de invarianza de los estimadores de
maxima verosimilitud, esto es, [(W/n)
1
]
1
= W/n, que es un EMV (estimador de
maxima verosimilitud) para (
1
)
1
= . El EMV

esta dividido por n, si se cambia
este por n 1 obtenemos S. Se sabe que E(S) =
Ahora, cuando se tienen valores numericos de las observaciones, estos pueden ser susti-
tuidos en la ecuaci on anterior como las x
j
. El resultado de dicha expresion considerandolas
ahora como una funci on de y para los valores jos del conjunto de observaciones
x
1
, x
2
, ..., x
n
es llamada verosimilitud.
Muchos procedimientos estadsticos emplean los valores de los par ametros de la poblacion
que mejor explican los datos observados. Un signicado de mejor es cuando se sele-
26
ccionan los valores que maximizan la densidad conjunta evaluada en las observaciones.
Esta tecnica es llamada estimaci on de m axima verosimilitud, y los valores m aximos de los
par ametros se llaman estimadores de maxima verosimilitud Alvin (1998).
2.1.2. Propiedades para

X y S
En seguida se mencionan algunas propiedades importantes de

X y S basados en una
muestra aleatoria X
1
, X
2
, ..., X
n
de una distribucion normal multivariada. Otras de sus
propiedades s olo son extensiones de los resultados de la familia univariada. Por el teorema
de factorizacion de Neyman, el vector de estadstico

es suciente para un vector de
estimadores si la funcion de verosimilitud puede factorizarse como
L(, X
1
, ..., X
n
) = g
_

,
_
h(X
1
, ..., X
n
) (2.15)
donde h(X
1
, ..., X
n
) no depende de . Esto implica que toda la informaci on en X
1
, X
2
, ..., X
n
acerca de esta contenida en

. Si

es suciente para y satisface el teorema de Neyman
entonces es estimada por

y con matriz de covarianzas mnima (Blackwell (1947)).
Enseguida se mostrara que

X y S son sucientes para y .
Teorema 2.2. Si

X y S se basan en una muestra aleatoria X
1
, X
2
, ..., X
p
de una dis-
tribuci on N
p
(, ) entonces

X y S son conjuntamente sucientes para y .
Prueba 3. Por las ecuaciones anteriores se puede escribir la funci on de verosimilitud
como
L(, ) =
1
_
2
_
np
||
n/2
e

_
(n1)tr
1
S+n( x)

1
( x)
_
/2
= g
_

X, S, ,
_
h(X
1
, ..., X
n
)
(2.16)
y esta tiene la misma forma que la ecuaci on 2.15 con h(X
1
, ..., X
n
) = 1
Se puede observar que el lado derecho de la ecuacion 2.16 no tiene la forma g
1
_

X,
_
g
2
(S, ).
Entonces

X y S son conjuntamente sucientes para y pero no independientemente
sucientes. Sin embargo

X y S se distribuyen de manera independiente.
Teorema 2.3. Si

X y S provienen de una muestra aleatoria X
1
, X
2
..., X
n
de una dis-
tribuci on N
p
(, ) entonces

X y S son independientes.
La distribuci on de

X es dada en los siguientes dos teoremas.
27
Teorema 2.4. Si

X es la media de la muestra aleatoria X
1
, X
2
, ..., X
n
de una distribuci on
N
p
(, ) entonces

X se distribuye como N
p
_
,
1
n

_
.
Prueba 4. Si a
1
, a
2
, ..., a
n
son constantes entonces,
n

l=1
a
l
X
l
se distribuye como N
p
_
n

l=1
a
l
,
n

l=1
a
2
l

_
(2.17)
Si se hace a
l
= 1/n entonces

X puede expresarse en la forma
n

l=1
a
l
X
l

X =
1
n
n

l=1
X
l
=
1
n
X
1
+
1
n
X
2
+ ... +
1
n
X
n
y se obtiene
n

l=1
a
l
=
1
n
+ ... +
1
n
= 1,
n

l=1
a
2
l
=
1
n
2
+ ... +
1
n
2
=
1
n
Entonces

n
l=1
a
l
= ,

n
l=1
a
2
l
=
1
n
y esto da lo siguiente

X N
p
_
,
1
n

_
(2.18)
Incluso si alguna X no se distribuye normal, la distribuci on de x puede ser aproximada-
mente normal. Este resultado se sabe a partir del Teorema Lmite Central.
Teorema 2.5. Si

X es el vector de medias de la muestra aleatoria X
1
, X
2
, ..., X
n
de
una poblacion con vector de medias y matriz de varianzas y covarianzas entonces si
n , la distribuci on de

n( x ) se aproxima a la normal multivariada N
p
(0, ).
Esto por el tama no de n,

X es aproximadamente N
p
_
,
1
n

_
.
2.2. Hip otesis para H
0
: =
0
con conocida
Las prueba de hip otesis multivariadas son diferentes a las pruebas univariadas; es decir,
el n umero de posibles hip otesis es muy grande de acuerdo al n umero de par ametros y en
varios casos existen pruebas alternativas para cada caso. Por ejemplo, en la normal p-
variada, la distribuci on tiene
1
2
p (p + 3) par ametros y para cada par ametro se puede tener
una hipotesis.
28
Teorema 2.6. Si X se distribuye N
p
(, ) entonces la forma cuadr atica (x )

1
-
(x ) se distribuye como una
2
(p)
Se desea probar el juego de hip otesis de H
0
: =
0
contra H
1
: =
0
donde

0
es dada. La implicaci on de la desigualdad en el vector en H
1
es que al menos una

j
=
0
j
. Se asume que es v alido para una muestra aleatoria de tama no n, X
1
, X
2
, ..., X
n
de una normal N
p
(, ) con conocida de donde se calcula

X =
n

i=1
X
i
/n. Para hacer
la comparaci on de

X con
0
se usa
Z
2
= n
_

X
0
_

1
_

X
0
_
(2.19)
Usando el teorema 2.6 anterior se sabe que Z
2
se distribuye como una
2
(p)
, si H
0
es
verdadera, y se rechaza H
0
si Z
2

2
,p
donde es el cuantil para la distribuci on
2
p
, es
decir la probabilidad de cometer el error tipo I (rechazar H
0
cuando es verdadera).
Para comparar

X con
0
solamente se elige una estadstica de prueba que sea conve-
niente y que tenga una distribuci on conocida. Se sugiere reemplazar por S, entonces
Z
2
tendra aproximadamente una distribuci on
2
. Sin embargo, para esto se mantendr a
que n debe ser mas grande o igual que en la situaci on univariada (p = 1).
Si H
0
no se rechaza, se concluye que
0
es un valor correcto para la media de la
poblaci on normal.
2.3. Intervalos de Conanza para la Normal Multivariada
Para establecer intervalos de conanza se necesita responder la siguiente pregunta
Se pueden tener otros valores que sean consistentes con los valores de los datos que se
tienen? la respuesta es s. En efecto, siempre hay un conjunto de datos que son valores
consistentes para una poblaci on normal. Dada una correspondencia conocida entre las
regiones de aceptaci on para la prueba de hip otesis H
0
: =
0
contra H
1
: =
0
y los
intervalos de conanza para , se tiene
No rechazar H
0
: =
0
con un nivel o

x
0
S/

t
n1
(/2)
es equivalente a
29
_

0
reside en un intervalo del 100 (1 ) % de conanza x t
n1
(/2)
s

n
_
o
x t
n1
(/2)
2

n

0
x + t
n1
(/2)
s

n
(2.20)
Los intervalos de conanza consisten en todos aquellos valores de
0
que no pueden
ser rechazados con un nivel bajo la hip otesis H
0
: =
0
Antes de seleccionar una muestra, el intervalo de conanza del 100 (1 ) % en la
expresion anterior es un intervalo aleatorio porque los criterios de valoraci on dependen de
las variables aleatoria x y S. La probabilidad de que los intervalos contengan a es 1;
entre mas grande sean los intervalos independientes, aproximadamente 100 (1 ) % de
ellos contienen a .
Ahora se considera el problema de determinar, si dado un vector
0
de p 1 es un
valor apropiado para la media de una poblaci on con distribuci on normal multivariada.
Se procedera a realizar el desarrollo de manera an aloga a como se hace con una funci on
univariada. Una generalizaci on natural del cuadrado de la distancia es an aloga para una
distribucion multivariada
T
2
= ( x
0
)

_
1
n
S
_
1
( x
0
) = n( x
0
)

S
1
( x
0
) (2.21)
donde
x
(p1)
=
1
n
n

j=1
X
j
S
(pp)
=
1
n 1
n

j=1
(x
j
x) (x
j
x)

0
(p1)
=
_

10

20
.
.
.

p0
_

_
El estadstico T
2
es llamado T
2
de Hotelling en honor a Harold Hotelling, pionero en
el analisis multivariado, quien fue el primero en obtener esta distribuci on muestral. Aqu
1
n
S es la matriz de covarianzas estimada de x.
30
Si la distancia observada de la estadstica T
2
es grande, esto es si x esta demasiado
alejada de
0
entonces la hip otesis H
0
: =
0
se rechaza. No son necesarias las tablas
porcentuales de la T
2
para probar de manera formal el juego de hip otesis, esto es verdadero
porque:
T
2
se distribuye como
(n1)p
np
F
p,np
donde F
p,np
denota una variable aleatoria con
distribuci on F con p y n p grados de libertad.
Para resumir lo anterior se tiene lo siguiente:
Resultado 2.6. Sean X
1
, X
2
, ..., X
n
una muestra de variables aleatorias de una poblaci on
normal con distribuci on N
p
(, ). Entonces con
x =
1
n
n

j=1
X
j
y S =
1
(n 1)
n

j=1
(x
j
x) (x
j
x)

= P
_
T
2
>
(n 1) p
(n p) F
p,np
()
_
= P
_
n( x )

S
1
( x ) >
(n 1) p
(n p)
F
p,np
()
_
para cualesquiera y . Aqui F
p,np
() es el percentil superior (100) de la distribu-
cion F
p,np
.
2.4. Funci on de Conabilidad de la normal multivaridada
Para la funci on de conabilidad de la normal multivariada resulta un tanto complicado
expresarla en terminos sencillos por lo que simplemente se deja indicada en la siguiente
expresion:
R
X
(x) =
_

x
1
...
_

xp
f (t
1
, ..., t
p
) dt
1
...dt
p
=
_

x
1
...
_

xp
1
(2)
p/2
||
1/2
exp
_

1
2
(x )

1
(x )
_
dt
1
...dt
p
(2.22)
31
2.5. Caso: Log-normal
Las distribuciones multivariadas tienen un importante rol en economa y estadstica.
Puesto que las variables en economa, psicologa y conabilidad son positivos, entonces se
pueden considerar una distribucion que tenga soporte positivo. Johnson y Kemp (1992)
hace referencia a algunas multivariadas con soporte positivo tal como la Gamma, Beta,
Pareto y F; estas poseen terminos muy complicados y no son f aciles de usar en investiga-
ciones.
2.5.1. Distribuci on Log-normal Multivariada
Denici on 2.2. Sea X = [X
1
, X
2
, ..., X
p
] un vector aleatorio que tiene distribuci on nor-
mal multivariada con media y matrz de covarianzas = (
ij
). Entonces se usar a la
transformaci on Y
i
= exp(X
i
) y se dene Y = [Y
1
, Y
2
, ..., Y
p
]. Entonces la densidad de Y
es log-normal multivariada y tiene la siguiente forma.
f
Y
(y) =
1
(2)
p/2
||
1/2
1
[y
1
, y
2
, ..., y
p
]
exp
_
(ln y )

1
(ln y )/2
_
Donde 0 < y
i
< y ln y = [ln y
1
, ln y
2
, ..., ln y
p
] es un vector de p componentes y
y
i
= exp(x
i
)
2.5.2. Media y matriz de Covarianza
Sea Y un vector con distribuci on log-normal. La media de Y es
= E(Y) = [
1
,
1
, ...,
p
] donde
i
= exp(
i
+ 0.5
ii
)
donde
ii
es el i-esimo componente de la matriz . Ahora la matriz de varianzas y covar-
ianzas de Y es:
D = E[(Y)(Y)] donde
ij
= exp[(
i
+
j
) + (
ii
+
ii
)/2] [exp(
ij
) 1]
donde
ij
es el ij-esimo elemento de .
32
Esta claro que si X
1
, X
2
, ..., X
p
son independientes, entonces Y
1
, Y
2
, ..., Y
p
tambien
son independientes.
33
CAP

ITULO 3
Distribuci on Exponencial Multivariada
Una de las leyes de falla aplicable al estudio de la conabilidad de componentes que
no estan afectados todava por problemas de vejez o desgaste es aquella que se describe a
traves de la distribuci on exponencial. Los elementos y dispositivos con funciones primor-
diales de seguridad, adem as, de ser idoneos ante las exigencias del sistema, deben asegurar
una correcta respuesta en el tiempo. Para ello es imprescindible establecer un programa
de mantenimiento preventivo y predictivo que permita mantenerlos en buenas condiciones
de uso, renov andolos antes de que su tasa de fallas sea inaceptable Tamborero (2006).
La distribuci on exponencial en la teora de fallas es aplicable a un n umero consider-
able de ejemplos en los cuales se asume el concepto basico de tasa de fallas constante,
en los cuales se desprecia el desgaste del artculo en cuestion producido en el tiempo.
Esta propiedad simplica considerablemente el an alisis; sin embargo, limita el uso de este
modelo haciendolo inapropiado para la mayora de las aplicaciones posibles en el mundo
real pues existe evidencia suciente e irrefutable que la tasa de falla de las unidades, en
general, no es constante.
Un ejemplo que aclara bastante este hecho es el caso de los autos. Los modelos nuevos
poseen un precio considerablemente superior comparado con aquellos modelos m as anti-
guos en los cuales el rendimiento de los mismos afectan signicativamente el precio de
venta; por lo tanto, la tasa de falla no es constante en el tiempo y la conabilidad se
ve afectada por esta raz on. Lo mismo ocurre con los componentes electr onicos que se
degradan con el tiempo.
A pesar de estas limitaciones, la contribucion en la teora de fallas de la distribuci on
exponencial todava tiene valor en el an alisis de conanza para determinados casos, no
es posible subestimarla; incluso se utiliza en la evaluaci on probabilstica de seguridad
de centrales nucleares para estudiar la conabilidad de los sistemas o subsistemas que las
componen. En la actualidad se requiere del uso de metodos de analisis mas sosticados que
modelen y reejen de una mejor manera las condiciones del mundo real. Tales modelos
han sido descubiertos y son acompa nados de una alta tecnologa computacional compleja
y de formulaciones matem aticas de alto nivel.
34
La distribuci on exponencial es muy importante en el an alisis de los tiempos de vida,
conabilidad y otros campos de aplicaci on. Aunque la hip otesis de independencia puede
ser utilizada obteniendo las distribuciones conjuntas.
Denici on 3.1. Suponga que se tiene un sistema con k componentes identicos con tiempos
de falla X
1
, ..., X
k
. Cada componente tiene funcion de densidad exponencial
f
X
(x) =
1

0
e
x/
0
, x 0,
0
0.
En este sentido si l componentes fallan (y no son reemplazados) entonces la funci on
de distribuci on conjunta de los tiempos de falla para los restantes k l tiempos de falla
son estas variables aleatorias, cada una con densidad
f
X
(x) =
1

l
e
x/
l
, x 0,
l
0.
En este caso, claramente 0 X
1
X
2
, ... X
k
. Weinman (1966) mostr o que la
densidad conjunta para las variables X
1
, ..., X
k
esta dado por:
f
X
1
,...X
k
(x
1
, ..., x
k
) =
k

i=0
1

i
e
(ki)(x
i+1
x
i
)/
i
x
0
= 0, x
k+1
= 0, 0 x
1
x
2
, ..., x
k
(3.1)
Es de interes mencionar que la funcion de densidad conjunta de la exponencial multi-
variada es progresivamente censurada por la derecha del tipo II con estadsticas de orden
como en la ecuaci on anterior. La funci on generatriz de momentos es:
E
_
e
t
1
X
1
+...+t
k
X
k

=
1
k!

p
k1

i=0
_
1

i
k i
k

j=i+1
t (p
j
)
_
1
(3.2)
donde tp
(1)
, ..., tp
(k)
es una de las k! posibles permutaciones de t
1
, ..., t
k
y

p
denota la
suma sobre todas las permutaciones. La distribuci on resulta ser simetrica en X
1
, ..., X
k
.
Para cada i = 1, 2, ..., k se tiene
E [X
i
] =
1
k
k1

i=0

i
35
V ar [X
i
] =
1
k
2
_
k1

i=0
k + 1
k i

2
i
+ 2

i<j
i (k i)
i

j
_
y
Cov (X
i
, X
j
) =
1
k
2
(k 1)
_
k1

i=0
_
k
k + i
k i
_

2
i
2

i<j
i (k i)
i

j
_
. (3.3)
La funcion generadora de momentos conjunta de las variables ordenadas X
(1)

X
(2)
... X
(k)
tiene la siguiente forma:
k1

i=0
_
1

i
k i
k

j=i+1
t
j
_
1
De la expresion anterior se tiene
E
_
X
(i)

=
i1

j=0

j
k j
, V ar
_
X
(i)
_
=
i1

j=0

2
j
(k j)
2
y
Cov
_
X
(i)
, X
(j)
_
= V ar
_
X
(i)
_
1 i j k. (3.4)
Cramer y Kamps (1997) derivaron un Estimador Uniforme Insesgado de Mnima Va-
rianza (EUIMV) sobre la Pr (X
1
< X
2
) basado en muestras censuradas del tipo II de la
distribucion exponencial multivariada de Weinman (1966).
Block (1977) realiza una extensi on de la distribuci on exponencial multivariada de
Freund (1961) y Weinman (1966) para el caso cuando se tienen marginales no identi-
cas. Sean X
1
, X
2
, ..., X
k
los tiempos de falla de k componentes, si en el tiempo x > 0
ninguno de los componentes ha fallado entonces se asume que los componentes act uan
independientemente con densidad f
(0)
i
(x) para i = 1, .., k. Si ha habido j fallas hasta el
tiempo x y 1 j k 1 y las fallas han sido de los componentes i
1
, ..., i
j
en los tiempos
0 x
i
1
... x
i
j
respectivamente, entonces se asume que los restantes (k j) componentes
act uan independientemente con densidad f
j
(i|i
1
,...,i
j
)
(x) para
_
x x
i
j
_
y dichas densidades
no dependen del orden de i
1
, ..., i
j
La funcion de densidad conjunta para (X
1
, ..., X
k
)

esta dada por


36
f (x
1
, ..., x
k
) = f
(0)
i
1
(x
i
1
)
k

j=2
_

x
i
1
f
(0)
i
j
_
x
i
j
_
dx
i
j

l=2
_
f
(l1)
(i
l
|i
1
,...,i
l1
)
(x
i
l
)

j=l+1
_

x
i
l
f
(l1)
i
j
|i
1
,...,i
l1
_
x
i
j
_
dx
i
j
_
,
0 = x
i
0
< x
i
1
... < x
i
k
,
(3.5)
donde la densidad f
(l1)
i|i
1
,...,i
l1
(x) = 0 para x x
i
l1
. Si todas las densidades en la ecuaci on
anterior son exponenciales y los tiempos de falla est an entre 0 < x
i
1
< x
i
2
< ... < x
i
k
y
x
i
0
= 0 entonces
f
(j)
l|i
1
,...,i
j
(x) =
(j)
l|i
1
,...,i
j
exp
_

(j)
l|i
1
,...,i
j
_
x x
i
j
_
_
, x x
i
j
o suprimiendo los subndices (i
1
, ..., i
j
)
f
(j)
l
(x) =
(j)
l
(x) exp
_

(j)
l
_
x x
i
j
_
_
, x x
i
j
.
Por lo tanto, de la ecuaci on 3.5 se tiene
f (x
1
, ..., x
k
) =
k

l=1
_

(l1)
i
l
k

j=1
exp
_

(l1)
i
j
_
x
i
l
x
i
l1
_
_
_
para 0 = x
i
0
< x
i
1
< ... < x
i
k
,
(3.6)
o equivalentemente
f (x
1
, ..., x
k
) =
_
k

l=1

(l1)
i
l
_
exp
_

l=1
_
k

j=l

l1
i
j
_
_
x
i
l
x
i
l1
_
_
para 0 = x
i
0
< x
i
1
< ... < x
i
k
,
(3.7)
donde
(l1)
i
j
|i
1
,...,i
l1
> 0. Esta distribuci on tiene la propiedad llamada falta de memoria, a
saber,
f (x
1
+ t, ..., x
k
+ t) = Pr [X
1
> t, ..., X
k
> t] f (x
1
, ..., x
k
)
37
La funcion generadora de momentos conjubta para la exponencial multivariada de
Freund (1961)-Weinman (1966)-Block (1977) est a dada por
E
_
e
t
1
X
1
+...+t
k
X
k

=
_
...
_
e
t
1
x
1
+...+t
k
x
k
f (x
1
, ..., x
k
) dx
1
...dx
k
=

P
k

l=1

(l1)
il
_
...
_
exp
_

l=1
__
k

j=l

(l1)
ij
_
_
x
i
l
x
i
l1
_
t
il
x
il
__
dx
ik
...dx
i1
=

P
k

l=1
_

(l1)
i
l
/
k

j=l
_

l1
i
j
t
i
j
_
_
(3.8)
donde

P
denota la suma sobre todas las permutaciones (i
1
, ..., i
k
) de (1, ..., k). Basu y
Sun (1997) se nalaron que la distribuci on de la ecuacion 3.7 es una generalizaci on completa
de la distribucion exponencial bivariada de Freund (1961); la cual, se puede derivar de un
modelo de choque. Si consideramos un sistema de k componentes independientes de un
proceso Poisson que predice la ocurrencia de choques se deriva asumiendo que se tiene
(n j)
_
n
j
_
clases de los procesos
_
Z
j
l|i
1
,...,i
j
(t) : l, i
1
, ..., i
j
_
son (j + 1) distintos elementos
de (1, ..., k) para j = 0, ..., k 1. Sin embargo, esto tambien es posible en los casos cuando
los procesos son independientes y no necesariamente en el orden i
1
, ..., i
j
; esto es, se tiene
k clases de estos procesos para j = 0, 1, ..., k 1. Entonces esta distribuci on tiene k
2
par ametros y tiene alguna funci on de densidad simple.
f (x
1
, ..., x
k
) =
_
k

l=1

(l1)
i
l
exp
_

l=1
_
k

j=1

(l1)
i
j
_
x
i
l
x
i
l1
_
___
para 0 = x
i0
< x
i1
... < x
ik
(3.9)
3.1. Metodo de Maxima Verosimilitud
La funcion de verosimilitud de la distribuci on exponencial multivariada se obtiene de
la siguiente manera:
L() =
k

i=0
f (x
i
; )
=
k

i=0
1

i
e
(ki)(x
i+1
x
i
)/
i
=
1

k
e

k
i=0
(ki)(x
i+1
x
i
)/
i
(3.10)
38
Ahora se obtiene el logaritmo de dicha funcion de verosimilitud, ya que esto facilita
su manejo; as como en ocasiones reduce los terminos.
ln L() = k ln
k

i=0
(k i) (x
i+1
x
i
)/
i
. (3.11)
Para obtener la estimaciones de los par ametros por este metodo, se maximiza la funci on
3.11 con respecto a , numericamente.
3.2. Funci on de Conabilidad de la exponencial multivariada
La funcion de conabilidad se puede expresar de la siguiente manera:
R
X
(x) =
_

x
1
...
_

x
k
f (t
1
, ..., t
k
) dt
1
...dt
k
=
_

x
1
...
_

x
k
k

i=0
1

i
e
(ki)(x
i+1
x
i
)/
i
dt
1
...dt
k
=
_

x
1
...
_

x
k
1

k
e

k
i=0
(ki)(x
i+1
x
i
)/
i
dt
1
...dt
k
x
0
= 0, 0 x
1
x
2
, ..., x
k
(3.12)
Como se observa, la expresion anterior resulta muy difsil de resolver puesto que no
tiene una forma cerrada. Se puede optar por obtener una soluci on mediante metodos
numericos o realizar la programaci on de la funci on en alg un paquete estadstico, lo que
resultara mas conveniente.
39
CAP

ITULO 4
Distribuci on Weibull Multivariada
En la teora de conabilidad y experimentos de tiempos de vida, la distribuci on Weibull
juega un papel muy importante.

Esta se reduce a una distribuci on exponencial cuando el
par ametro de forma es igual a uno. La distribuci on Weibull aumenta la tasa de fracaso
(TFC) cuando el par ametro de forma es mayor a uno y tiene una tasa decreciente (TFD)
cuando el par ametro de forma es menor a uno. La extensi on de la Weibull univariada al
caso multivariado es crucial en vista del papel tan importante que juega en la teora de con-
abilidad en la construcci on de modelos para varias fallas o la distribuci on de los tiempos
de vida. Sin embargo, en el caso exponencial no existe una unica extensi on natural para
la exponencial univariada a los casos bivariados, es decir, se tienen muchas extensiones
de la distribucion exponencial bivariada o multivariada [Ver D.G (1996), Block (1975) y
Hanagal (1993)].
Similarmente, se tienen muchas distribuciones Weibull bivariadas o multivariadas basadas
en la exponencial univariada o multivariada.
En el presente trabajo se considera la Weibull multivariada que puede ser obtenida
del modelo exponencial multivariado de Marshall y Olkin (1967); la raz on de escoger este
modelo es porque esta es la unica exponencial multivariado cuyas marginales tambien son
exponenciales. Si se tiene la distribucion exponencial multivariada de Marshall y Olkin
(1967), Y = (Y
1
, ..., Y
n
) con (k + 1) como se indica en Proschan y Sullo (1976) y Hanagal
y Kale (1991), entonces realizando la transformaci on X
i
= Y
1/c
i
, c > 0, i = 1, ..., k se
obtiene X = (X
1
, ..., X
k
) que tiene una distribucion exponencial multivariada con varias
singularidades. La transformaci on de arriba tambien se puede hacer para el modelo de
Marshall y Olkin (1967) con
_
2
k
1
_
obteniendose el modelo Weibull multivariado con 2
k
par ametros; pero el presente trabajo se enfocar a en el estudio de la Weibull multivariada
con solo (k + 2) par ametros, (ver Hanagal (1997)).
40
4.1. Funci on de densidad de la distribuci on Weibull multivaria-
da
La funcion de densidad de probabilidad multivariada f (x
1
, x
2
, ..., x
n
) de una funci on
de distribuci on multivariada se puede obtener mediante la diferenciaci on de la funcion de
conabilidad con respecto a cada variable. (Li (1997)) muestra que
f
X
(x
1
, x
2
, ..., x
n
) = (1)
n

n
R(x
1
, x
2
, ..., x
n
)
x
1
x
2
...x
n
. (4.1)
Usando la derivaci on de (Li (1997)) y uno de los casos especiales de la formula multivariada
Faa di Bruno desarrollada en M. y Savits (1996), la funci on de densidad de probabilidad
es
f (x
1
, x
2
, ..., x
n
) =
_
1

_
n
exp
_

_
_
x
1

1
_

+
_
x
2

2
_

+ ... +
_
x
n

n
_n

_
__

1
__

2
_
...
_

n
__
_
_
x
1

1
_

1
_
x
2

2
_

1
...
_
x
n

n
_n

1
_
P(n)

i=1
_
_
_
(1)
k
i
P
s
(n, i)
_
k
i

j=1

n
j
__
_
x
1

1
_

+
_
x
2

2
_

+ ... +
_
x
n

n
_n

_
k
i
,n
_
_
_
(4.2)
donde k
i
es el n umero de sumandos de la i-esima partici on de n tal que n
1
+n
2
+... +
n
k
i
= n, n
1
n
2
... n
k
i
> 0, 1 k
i
n;
n
j
es igual a ( 1) ... ( n
j
+ 1),
el factorial descendente para (Knuth (1992)); P(n) es el n umero total del conjunto
de particiones de n; P
s
(n, i) es el n umero total del conjuto de particiones del conjunto
S
n
= 1, ..., n correspondiente a la i-esima particion de n.
Sin embargo, como se mencion o anteriormente, de aqu en adelante se utilizar a la
Weibull multivariada de Marshall y Olkin (1967).
4.2. Propiedades de la Distribuci on Weibull Multivariada
La funcion de supervivencia de Y de una exponencial multivariada de Marshall y Olkin
(1967) es
41

F
Y
(y) = P [Y
1
> y
1
, ..., Y
k
> y
k
]
= exp [
1
y
1
...
k
y
k

0
max (y
1
, ..., y
k
)]
donde
0
, ...,
k
> 0. Realizando la transformaci on X
i
= Y
1/c
i
, c > 0 i = 1, ..., k obten-
emos la correspondiente funcion de sobrevivencia de un vector X que es Weibull multi-
variada y est a dado por

F
X
(x) = P [X
1
> x
1
, ..., X
k
> x
k
]
= exp {
1
x
1
c

2
x
2
c
...
k
x
k
c

0
{max (x
1
, ..., x
k
)}
c
} .
El modelo anterior, Weibull multivariada, no es exactamente continuo respecto a la medida
de Lebesgue en R
k
. Como la distribuci on de la Weibull multivariada es la distribuci on de
los tiempos de falla y es derivada de una distribuci on exponencial multivariada de Marshall
y Olkin (1967), entonces todas las aplicaciones reales de dicho modelo de Marshall y Olkin
(1967) puede ser aplicado a la Weibull multivariada propuesta, por ejemplo en fallas
simult aneas de una estacion nuclear, fallas de la bomba hidroelectrica de un aeroplano
etc.
La marginal de X
i
, i = 1, ..., k se obtiene como
P [X
i
> x
i
] =

F
x
(0, ..., x
i
, 0, ..., 0)
= exp {(
i
+
0
) x
c
i
} , i = 1, ..., k
que es la funci on de supervivenvia de la distribuci on Weibull con (
i
+
0
, c) , i = 1, ..., k.
La distribuci on del Min (X
1
, ..., X
k
) se obtiene como
P [Min (X
1
, ..., X
k
) > x] =

F
X
(x
1
, ..., x
k
)
= exp {x
c
} , =
0
+
1
+ ... +
k
que es la funci on de sobrevivencia de una Weibull con par ametros (, c). Las variables
aleatorias X
i
, i = 1, ..., k son independientes s olo si
0
= 0 y X
i
, i = 1, ..., k son identica-
mente distribuidas si
1
=
2
= .... =
k
. La probabilidad de que todas las X
i
, i = 1, ..., k
sean iguales entre si es P [X
1
= X
2
= ... = X
k
] =
0
/. Esta Weibull multivariada tiene
TFC cuando c > 1 y TFD cuando c < 1.
42
4.3. Estimaci on de los parametros de la Distribuci on Weibull
Multivariada
Sean (x
1j
, x
2j
, ..., x
kj
) , j = 1, ..., n observaciones independientes e identicamente dis-
tribuidas de una muestra aleatoria de tama no n. Al escribir la verosimilitud de la Weibull
multivariada se ver an algunas similitudes con la verosimilitud de la Exponencial multi-
variada de Marshall - Olkin [Ver Proschan y Sullo (1976)]. Entonces tenemos que
L =C
p

n
0
0
_
k

i=1

n
i
i
(
i
+
0
)
n
i
(e)
n

j=1
x
(c1)
i
j
__
k

r=2

jSr
x
(r1)(c1)
(k)
j
_
exp
_

i=1

i
n

j=1
x
c
i
j
0
n

j=1
x
c
(k)
j
_
donde p =
_
nk
k

r=2
(r 1) n
o
(r)
_
, n
0
(r)= n umero de observaciones con r o X

i
s (i = 1, ..., k)
iguales, n
0
=

k
r=2
n
0
(r) , n
i
= n umero de observaciones con las variables aleatorias X
i
<
X
(k)
, n
i
(e)= n umero de observaciones con X
i
estrictamente el m aximo de las (X
1
, ..., X
k
).
S
r
=
_
X
i
1
= X
i
2
= ... = X
ir
= X
(k)
, i
1
= i
2
= ... = i
r
= 1, ..., k
_
y X
k
= m ax (X
1
, ..., X
k
).
4.4. Metodo de Maxima Verosimilitud
El logaritmo de la verosimilitud de la muestra aleatoria de tama no n esta dada por
log L =p log c + n
0
log
0
+
k

i=1

i
log
i
+
k

i=1
n
i
(e) log (
i
+
0
) +
k

i=1
(c 1)
n

j=1
log x
i
j

r=2
(r 1) (c 1)

jSr
log X
(k)
j

k

i=1

i
n

j=1
X
c
ij

0
n

j=1
X
c
(k)
j
43
el valor esperado de n
i
, n
0
, n
i
(e) y n
0
(r) son
E (n
i
) = n
i
(1
i
) / (
i
+
0
), i = 1, ..., k
E (n
0
) = n
_
1
k

i=1

i
_
E (n
i
(s)) = n
i
, i = 1, ..., k
y
E [n
0
(r)] =

i
1
=
...
k

=i
k
=1

i
1
, ...,
i
kr

0
_

i
kr+1
+ ... +
i
k
+
0
_
... ()
i
1
= ... = i
k
, i = 1, ..., k
donde

i
1
= P [X
i
1
> Max (X
i
2
, ..., X
i
k
)] , i
1
= ... = i
k
= 1, ..., k
=

i
1
=
...

=i
k
=1

i
2

i
3
...
i
k
(
i
1
+
i
2
+
0
) ... ()
Las ecuaciones de verosimilitud con respecto a los par ametros (
0
,
1
, ...,
k
, c) son
n
0
/
0
+
k

i=1
n
i
(e) / (
i
+
0
)
n

j=1
x
c
(k)
j
= 0
n
i
/
i
+ n
i
(e)(
i
+
0
)

j = 1
n
x
c
ij
= 0, i = 1, ..., k
p
c
+
k

i=1
n

j=1
log X
ij

r=2
(r 1)

jSr
log X
(k)
j

i=1

i
n

j=1
x
c
ij
log X
ij

0
n

j=1
X
c
(k)
log X
(k)
j
= 0
Estas ecuaciones no son faciles de resolver. De esta manera se pueden generar esti-
madores consistentes tales como (
0
, ...,
k+1
) para = (
0
, ...,
k
, c) y ya que (
0
, ...,
k+1
)
es una solucion obtenida por el procedimiento de Newton - Raphson que produce el
metodo de Fisher para obtener estimaciones puntuales de m axima verosimilitud.

=
_

0
,

1
, ...,

k
, c
_
. Por lo tanto, se eligen los estimadores consistentes (
0
, ...,
k+1
) para
= (
0
, ...,
k
, c).
44
u
i
= r
i
/
n

j=1
x
c
(1)
j
, i = 0, 1, ..., k
u
k+1
=

6
_
1
n
n

j=1
_
log X
(1)
j
log X
(1)
_
2
_
1/2
donde r
i
, i = 1, ..., k es el n umero de observaciones con x
ij
< mn
l=i
_
x
l
j
_
, l = i = 1, ..., k y
r
0
es el n umero de observaciones con x
1
j
= ... = x
k
j
, en la muestra de tama no n,

i=0
k
r
i
=
n, x
(1
j
)
= mn
_
x
1
j
, ..., x
k
j
_
y log X
(1)
j
=
1
n
n

j=1
log x
(1)
j
. La distribuci on de (r
1
, ..., r
k
) es
multinomial con par ametros (n,
1
/, ...,
k
/) y la distribuci on de x
c
(1)
j
es una exponencial
con tasa de falla y resulta f acil checar que u
i
P

i
, i = 0, 1, ..., k, u
k+1
P
c. Aqu el
estimador inicial de u
k+1
se obtiene mediante la expresion V ar
_
log X
(1)
_
= (
2
/6) c
2
. La
matriz de informaci on de Fisher es nI () = n(I
ij
) donde
I
00
=
_
1
k

i=1

i
_
/
2
0
+
k

i=1

i
/ (
i
+
0
)
2
I
ii
= [1
i
] / [
i
(
i
+
0
)] +
i
/ (
i
+
0
)
2
, i = 1, ..., k
I
i0
=
i
/ (
i
+
0
)
2
, i = 1, ..., k, I
ij
= 0, i = j = 1, ..., k
I
cc
= E (p) /
_
nc
2

+
k

i=1

i
E
_
x
c
ij
(log x
ij
)
2

+
0
E
_
x
c
(k)
j
_
log x
(k)
j
_
2
_
I
ic
= E
_
x
c
ij
log x
ij

, i = 1, ..., k I
0c
= E
_
x
c
(k)
j
log x
(k)
j
_
donde
E (p) = nk
k

r=2
(r 1) E [n
0
(r)] ,
E
_
x
c
ij
(log x
ij
)
2

=
_
[log (
i
+
0
) (2)]
2
+

(1) 1
_
/
_
(
i
+
0
) c
2

, i = 1, ..., k
E
_
x
c
ij
log x
ij

= [ (2) log (
i
+
0
)] / [(
i
+
0
) c], i = 1, ..., k
45
E
_
x
c
(k)
j
_
log x
(k)
j
__
=
1
c
_
k

r=1
(1)
r+1

i
1
<
...

<ir=1:k
[ (2) log (
i
1
+ ... +
ir
+
0
)]
(
i
1
+ ... +
ir
+
0
)
_
E
_
x
c
(k)
j
_
log x
(k)
j
_
2
_
=
1
c
2
_
k

r=1
(1)
r+1

i
1
<
...

<ir=1:k
_
[log (
i
1
+ ... +
ir
+
0
) (2)]
2
+

(1) 1

(
i
1
+ ... +
ir
+
0
)
_
donde () y

() son las funciones digamma y trigamma que est an dados por:


(2) =
d log
z
d
z

z=2
= 0.422785

(1) =
d
2
log
z
d
z
2

z=1
=
2
/6 = 1.64474
Ya se ha mencionado que la matriz de informaci on de Fisher nI () es positiva deni-
da y se usa en el teorema de lmite central multivariado,

n
_


_
tiene una distribu-
cion normal multivariada con matriz de media cero y matriz de varianzas y covarianzas
I
1
() = (I
ij
) , i.j = 0, 1, ..., k + 1 donde I
ij
tiene los elementos de la inversa de I () .
4.4.1. Pruebas para muestras grandes
Prueba para la distribuci on exponencial multivariada
Primero se desarrolla la prueba studentizada para muestras grandes para la expo-
nencial multivariada basado en el EMV
3
de c, i.e c. El contraste de hip otesis de la
prueba para la distribuci on exponencial multivariada es H
0
: c = 1 vs H
1
: c = 1. La
distribuci on asint otica de c es AN
_
c, I
k+1,k+1
/n
_
(AN
4
). Se puede obtener la estadstica
de prueba estudentizada

n( c 1) /
_

I
k+1,k+1
_
1/2
que es una AN (0, 1) bajo H
0
donde

I
k+1,k+1
es estimada usando EMV de los parametros bajo (H
0

H
1
).Para la hip otesis
alternativa H
1
: c = 0 se puede rechazar H
0
si ( c 1)
2
_

I
k+1,k+1
_
>
2
1,1
donde
2
1,1
es 100 (1 ) % de la ji cuadrada con 1 grado de libertad.
3
Estimador de m axima verosimilitud
4
Distribuci on asint oticamente normal
46
4.4.2. Pruebas para la independencia
Para lo siguiente se considera la prueba de hip otesis para independencia de (X
1
, ..., X
k
),
es decir, H
0
:
0
= 0 contra H
1
: > 0. La prueba que se propone est a basada en
EMV

0
, la cual se distribuyte AN (
0
, I
00
/n). La estadistica de prueba studentizada
es

n
_

0
/
_

I
00
__
1/2
con una distribuci on AN (0, 1) bajo H
0
donde

I
00
es el estimador
de la varianza de

0
. Para las hip otesis alternativas H
1
:
0
> 0, y se rechaza H
0
si

0
/
_

I
0
0
_
1/2
>
1
donde
1
es el 100 (1 ) % de una normal est andar.
4.4.3. Pruebas para la simetra
Se consideran las hip otesis para la prueba de simetra de marginales identicas (X
1
, ..., X
k
),
es decir, H
0
:
1
=
2
= .... =
k
o = 0 donde
= (
2

1
,
3

2
, ...,
k

k1
)

.
Desarrollando la prueba respecto al EMV con =
_

1
, ...,

k1
_
y la
estadstica para la prueba estudentizada es

1
con
2
k1
bajo H
0
donde

1
es
el estimador de la matriz de varianzas y covarianzas de . Para la hip otesis alterna
H
1
: = 0 se rechaza H
0
a favor de H
1
si

1
>
2
k1,1
. Bajo la hipotesis al-
ternativa H
1
: = 0,

1
no central
2
k1
con par ametro de no centralidad

1
.
4.5. Funci on de Conabilidad de la Distribuci on Weibull multi-
variada
Como ya se vio anteriormente, la funci on de conabilidad de la distribuci on Weibull
multivariada queda expresada de la siguiente manera:
R(x) = P [X
1
> x
1
, ..., X
k
> x
k
]
= exp {
1
x
1
c

2
x
2
c
...
k
x
k
c

0
{max (x
1
, ..., x
k
)}
c
} .
(4.3)
Mediante la literatura revisada, y a traves del desarrollo que realizaron Lu y Bhat-
tacharyya (1990) para una funci on de sobrevivencia conjunta; realizando la extensi on del
teorema de la funcion de sobrevivencia bivariada tambien se puede expresar la funcion de
47
conabilidad para la distribuci on Weibull multivariada denida como:
R
X
(x
1
, x
2
, ..., x
n
) = exp
_

_
_
x
1

1
_

+
_
x
2

2
_

+ ... +
_
x
n

n
_n

_
.
El uso de cualquiera de las dos depende del tipo de datos que se esten manejando y
de la facilidad que observe el investigador para la programaci on y el an alisis.
48
CAP

ITULO 5
Distribuci on Gamma Multivariada
Cuando se quiere observar m as de un tiempo por evento, para cada individuo en es-
tudio, tales como un tiempo de fallas multiorg anicos en pacientes diabeticos es razonable
asumir que los tiempos de los eventos son independientes. Sin embargo, en la pr actica es
com un asumir independencia en el trabajo analizando cada caso por separado y traba-
jarlos como independientes ( Lawless (2003)). Se demostrar a que ignorar la dependencia
puede traer grandes costos en terminos de sesgo, MSE
5
y de una estimaci on objetiva
y eciente. Por ejemplo, en terminos de estimacion por m axima verosimilitud (MLE), el
trabajo enfocado a una independencia sistem atica maximiza la probabilidad de un mal
funcionamiento del sistema en su conjunto. Es decir, los EMV de los par ametros basados
en las probabilidades marginales no son los mismos que las derivadas de las probabilidades
conjuntas.
Por otra parte, un an alisis por separado de las variables correlacionadas a menudo lleva a
la confusion en las interpretaciones. Ademas, en la adopci on de este enfoque, hay que hacer
ajustes de m ultiples pruebas que podran conducir a una disminucion de la sensibilidad a
las diferencias reales en la supervivencia o abilidad entre los grupos. Por ejemplo, en los
ensayos clnicos, se obtiene mas de un punto nal para examinar el tiempo de desapari-
cion y el tiempo de la recurrencia de un tumor. Aqu se dene y caracteriza a la funci on
de distribuci on Gamma multivariada, donde las marginales bajo ciertas asumpciones son
tres parametros (localizaci on, escala, forma). Las variables est an relacionadas linealmente
a traves de variables latentes.
Sean Y
0
, Y
1
, ..., Y
k
variables aleatorias gamma con funci on de densidad denida por:
f
Y
i
(y
i
) =
1
(
i
)
e
y
i
y

i
1
i
, y
i
> 0,
i
> 0 (i = 0, 1, ..., k) .
Sea X
i
= Y
0
+Y
i
para i = 1, 2, ..., k. Entonces de la funcion de densidad conjunta dada
por (Y
0
, Y
1
, ..., Y
k
)

.
5
estimacion por mnimos cuadrados
49
f
Y
0
,Y
1
,...,Y
k
(y
0
, y
1
, ..., y
k
) =
1

k
i=0
(
i
)
e

k
i=0
y
i
k

i=0
y

i
1
i
y
i
> 0,
i
> 0 (i = 0, 1, ..., k)
(5.1)
Entonces se obtiene la funci on de densidad conjunta para (Y
0
, X
1
, ..., X
k
) como sigue
f
Y
0
,X
1
,...,X
k
(y
0
, x
1
, ..., x
k
) =
1

k
i=0
(
i
)
y

0
1
0
_
k

i=1
(x
i
y
o
)

i
1
_
exp
_
(k 1) y
0

i=1
x
i
_
x
i
y
0
0 (i = 1, 2, ..., k)
(5.2)
A n de integrar la variable Y
0
es necesario evaluar la siguiente integral
_
x
0
y

0
1
0
_
k

i=1
(x
i
y
0
)

i
1
_
e
(k1)y
0
dy
0
(5.3)
donde x = min(x
1
, ..., x
k
). El caso general de la ecuacion anterior resulta una expresi on
muy complicada pero exsten algunos casos especiales, que son muy simples. Por ejemplo,
si
1
= ... =
k
= 1 (esto es Y
1
, .., Y
k
) cada uno con distribuci on exponencial, entonces,
f
X
1
,...,X
k
(x
1
, ..., x
k
) =
1
(
0
)
e

k
i=1
x
i
g ( x;
0
) x
i
> 0 (i = 1, ..., k) (5.4)
donde,
g ( x;
0
) =
_
x
0
y

0
1
0
e
(k1)y
0
dy
0
.
Evidentemente, x = min(x
1
, ..., x
k
) es una estadstica suciente para
0
. El estimador
de maxima verosimilitud,

0
de
0
satisface la siguiente ecuacion:

0
ln g
_
x;

0
_
=
_

_
,
donde (.) es la funci on digamma. Ver Captulo1[Eq.(1.37)] de Johnson y Kemp (1992).
La distribuci on marginal de X
i
es una gamma estandar con par ametros
0
+
i
y V ar (X
i
) =

0
+
i
, (i = 1, ..., k). Por extension
Cov (X
i
, X
j
) = V ar (Y
0
) =
0
50
y
Corr (X
i
, X
j
) =

0
_
(
0
+
i
) (
0
+
j
)
la cual es no negativa.
Resultado 5.1. Se puede mostrar que
E [X
i
|X
j
= x
j
] = x
j

0
+
j
+
i
y
V ar (X
i
|X
j
= x
j
) = x
2
j

j
(
0
+
j
)
2
(
0
+
j
+ 1)
+
i
que revelan que la regresi on para X
i
con X
j
es lineal pero la variaci on sobre la regresion
es heterocedastica, es decir no tienen la misma varianza.
La funcion generatriz de momentos conjunta de X = (X
1
, ..., X
k
)

es:
E
_
e
t

X
_
= E
_
e
Y
0
k

i=1
t
i
k

i=1
e
t
i
Y
i
_
= E
_
e
Y
0
k

i=1
t
i
_
k

i=1
E
_
e
t
i
Y
i

=
_
1
k

i=1
t
i
_

0
k

i=1
(1 t
i
)

i
5.1. Met odo de Maxima Verosimilitud
La log-verosimilitud de la distribuci on gamma multivariada se construye como se indica
en seguida.
L() =
1

k
i=0
(
i
)
e

k
i=0
y
i
k

i=0
y

i
1
i
. (5.5)
Aplicando logaritmo para reducir terminos se tiene:
ln L() =
k

i=0
(
i
)
k

i=0
y
i
+
k

i=0
y

i
1
i
. (5.6)
Los estimadores de maxima verosimilitud tambien pueden ser obtenidos por un metodo
iterativo. Lo m as com un es maximizar (L) como la determinaci on no lineal de una raz
51
mediante una generalizaci on multidimensional del metodo de Newton-Raphson; esto se
basa en un desarrollo de Taylor para la derivada de (L):
L

) L

() + (

) L

() (5.7)
donde representa un vector generico de par ametros de distribuci on y

son los valores


verdaderos a aproximar. Puesto que se trata de determinar las races de la derivada L

)
se requiere evaluar la segunda derivada de L, L

(). Igualando 5.7 a cero (para producir


un maximo de L) y despejando

se obtiene el algoritmo iterativo:

=
L

()
L

()
. (5.8)
Comenzando con un valor tentativo , se eval ua un conjunto de estimadores,

, que
a su vez se reemplazan en el segundo miembro para la iteraci on siguiente.
Para la distribuci on Gamma 5.8 resulta:
_

_
=
_

_
_

2
L

2
L

2
L

2
L

2
_
_
1
_
L

_
=
_

_
_
n

()
n

2

2

3
_
_
1
_

ln(x) nln() n

()

2

n

_
.
(5.9)
Donde

() y

() son la primera y segunda derivada de la funci on gamma respec-


tivamente, que deben ser evaluadas numericamente. La ecuacion 5.9 se implementa con
valores iniciales tentativos para los par ametros y , algunas veces se usan los estimadores
de momentos. Al aplicar 5.9 resultan nuevos valores de

.
Los nuevos valores se sustituyen en el lado derecho y el proceso se repite hasta que el
algoritmo converja con estimaciones sucesivas que dieran en un peque no valor.
52
5.2. Funci on de Conabilidad de la Distribuci on Gamma multi-
variada
Para una distribucion gamma, la funci on de distribuci on acumulada F
T
(t), y en con-
secuencia la funcion de conabilidad R
T
(t), en general no pueden escribirse en forma
cerrada. Por tal motivo, la funci on de conabilidad se expresa de la aiquiente manera:
R
Y
(y) =
_

y
1
...
_

y
k
1

k
i=0
(
i
)
e

k
i=0
y
i
k

i=0
y

i
1
i
dy
1
...dy
k
x
i
y
0
0 (i = 1, 2, ..., k)
(5.10)
53
CAP

ITULO 6
Aplicaci on a un problema de Conabilidad
Se analizar an los datos publicados por Mantel y Ciminear (1977). Los datos se presen-
tan en el cuadro 1, tal informaci on se reere a 50 camadas de 3 ratas hembras cada una.
A una rata de cada camada se le aplic o un supuesto agente cancergeno y las otras dos
ratas se tomaron como unidades de control, se supone que las tres ratas se encuentran en
la misma cama o madriguera.
Estos mismos datos tambien fueron analizados por Hougaard (1986) usando la dis-
tribucion Weibull multivariada. Se asume que el tiempo de la aparici on de un tumor en
el grupo de tratamiento y en los grupos de control tiene distribuci on Weibull.
En este trabajo los datos se tomar an como completos para facilitar su programaci on.
Primero se analizar an solamente las columnas del grupo de tratamiento T y la del grupo
de control C
1
y posteriormente se analizar a la informaci on completa.
6.1. Primer analisis (variables T y C
1
)
La funcion de conabilidad de la distribuci on Weibull bivariada est a dada por:
R(x, y) = e

_
_
y

2
_

+
_
x

1
_

Donde 0 < 1 muestra la asociaci on que hay entre las variables, 0 <
1
,
2
< y
0 <
1
,
2
< . La funci on de densidad esta denida como:
f(x, y) =

2
_
x

1
_

_
y

2
_

_
_
y

2
_

+
_
x

1
_

_
2
_
_

_
_
y

2
_

+
_
x

1
_

+ 1
_
_
xy

e

_
_
y

2
_

+
_
x

1
_

xy
Entonces cuando se tiene una muestra aleatoria de tama no n, X
1
, . . . , X
n
de la dis-
tribucion Weibull bivariada; si
1i
indica que la observaci on i de la primera componente
54
Camada T C
1
C
2
Camada T C
1
C
2
1 101+ 49 104+ 26 89+ 104+ 104+
2 104+ 102+ 104+ 27 78+ 104+ 104+
3 104+ 104+ 104+ 28 104+ 81 64
4 77+ 97+ 79+ 29 86 55 94+
5 89+ 104+ 104+ 30 34 104+ 54
6 88 96 104+ 31 76+ 87+ 74+
7 104 94+ 77 32 103 73 84
8 96 104+ 104+ 33 102 104+ 80+
9 82+ 77+ 104+ 34 80 104+ 73+
10 70 104+ 77+ 35 45 79+ 104+
11 89 91+ 90+ 36 94 104+ 104+
12 91+ 70+ 92+ 37 104+ 104+ 104+
13 39 45+ 50 38 104+ 101 94+
14 103 69+ 91+ 39 76+ 84 78
15 93+ 104+ 103+ 40 80 81 76+
16 85+ 72+ 104+ 41 72 95+ 104+
17 104+ 63+ 104+ 42 73 104+ 66
18 104+ 104+ 74+ 43 92 104+ 102
19 81+ 104+ 69+ 44 104+ 98+ 73+
20 67 104+ 68 45 55+ 104+ 104+
21 104+ 104+ 104+ 46 49+ 83+ 77+
22 104+ 104+ 104+ 47 89 104+ 104+
23 104+ 83+ 40 48 88+ 79+ 99+
24 87+ 104+ 104+ 49 103 91+ 104+
25 104+ 104+ 104+ 50 104+ 104+ 79
Cuadro 1: Tiempo de aparicion del tumor en semanas para el grupo de tratamiento (T) y los
grupos de control (C
1
) y (C
2
). + muestra censura por la derecha.
corresponde a un dato completo y
2i
indica que la observacion i de la segunda compo-
nente es un dato completo, la funcion de verosimilitud se puede escribir de la siguiente
forma
L(
1
,
2
,
1
,
2
, ) =
n

i=1
[f (x
i
, y
i
)]

1i

2i
_


x
i
R(x
i
, y
i
)
_

1i
(1
2i
)
_


y
i
R(x
i
, y
i
)
_
(1
1i
)
2i

[R(x
i
, y
i
)]
(1
1i
)(1
2i
)
Al inicio del documento se dijo que se utilizara
1i
y
2i
como indicadores de censura,
pero para este ejmplo se preere usar
1i
y
2i
debido a que en la funcion de conabilidad
aparace un termino que se denomina que es el exponente, esto para evitar confusi on.
55
Por lo tanto, el logaritmo de la verosimilitud es
l (
1
,
2
,
1
,
2
, ) =
n

i=1

1i

2i
log f (x
i
, y
i
) +
1i
(1
2i
) log

x
i
R(x
i
, y
i
) +
(1
1i
)
2i
log

y
i
R(x
i
, y
i
) + (1
1i
) (1
2i
) log R(x
i
, y
i
) .
Entonces, obteniendo el logaritmo para la funci on de densidad que es la unica que se
utilizar a puesto que son datos completos; es decir,
1
= 1 y
2
= 1 provocando que los
otros terminos se simpliquen y se obtenga la siguiente expresion:
log f (x
i
, y
i
) = log
_
_

_
_
y

2
_

+
_
x

1
_

_
+ 1
_
_
+( 2) log
_
_
y

2
_

+
_
x

1
_

_
+

2
(log (y) log (
2
))

log (y)
_
_
y

2
_

+
_
x

1
_

_
+

1
(log (x) log (
1
))

log (x) log () + log (


2
) + log (
1
)
El analisis para obtener los estimadores de los par ametros se realiza en el Proyecto
R. Como se va a utilizar la funci on nlm del Proyecto R
6
, la cual minimiza en lugar de
maximizar entonces se programa la funci on L(data, ) para obtener el m aximo, donde
data contiene los datos del cuadro 1 y es el vector de par ametros.
Los resultados que se obtuvieron se muestran en el cuadro 2. Los errores est andar se
obtienen a partir de la inversa de la matriz Hessiana que resulta ser la matriz de varianzas
y covarianzas para los par ametros (mvarcov).
Para los par ametros de forma se establece la siguiente prueba de hipotesis:
H
0
:
1
= 1 vs H
1
:
1
= 1
H
0
:
2
= 1 vs H
1
:
2
= 1
Cuando se acepta H
0
signica que la funcion de riesgo (o tasa de falla) es constante,
6
http://cran.r-project.org
56
en cambio, si se acepta H
1
signica que la funcion de riesgo es creciente o decreeciento
dependiento del tiempo t; es decir, que al aumentar t(tiempo) la proporci on de artculos
defectuosos aumenta o disminuye en forma contnua.
Para el ejemplo se observa que los estimadores para los dos par ametros de forma
1
y
2
son signicativamente mayores a 1 con un nivel de signicancia igual a 0.05, lo que
indica que los dos grupos tienen un incremento mon otono en la funci on de riesgo.
El estimador del parametro de asociaci on , no es signicativamente diferente de 1, lo
que indica que el tiempo de la aparici on del tumor para los dos grupos no est a asociado.
Es decir, estadsticamente y de acuerdo al intervalo de conanza que se obtuvo no exste
raz on suciente para poder concluir que exste asociacion entre las variable. Haciendo
una revision de la funcion de conabilidad de tal distribuci` on se observa que cuando el
par ametro se aproxima a 1, entonces esta funci on se puede expresar como la siguiente
ecuacion y nuevamente expresando que las variables no est an asociadas.
f(x, y) =e

_
_
y

2
_

_
+
_
_
x

1
_

_
= e

_
_
y

2
_

_
e

_
_
x

1
_

_
estimaci on error estandar LIC LSC

1
94.136 2.034 90.149 98.123

2
98.052 1.686 94.748 101.356

1
6.791 0.792 5.238 8.343

2
8.500 1.012 6.517 10.483
0.956 0.042 0.874 1.038
Cuadro 2: Estimaciones de maxima verosimilitud y errores est andar
57
6.2. Analisis tomando todas las variables de la tabla 1: T, C
1
y
C
2
La funcion de conabilidad para la Weibull trivariada es la siguiente
R(x, y, z) = e

_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

.
De esta manera la funci on de densidad es
f(x, y, z) =

3
_
x

1
_

_
y

2
_

_
z

3
_

_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

_
33
xyz
e

_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

xyz
+

3
(2 2)
_
x

1
_

_
y

2
_

_
z

3
_

_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

_
23
xyz
e

_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

xyx
+

3
( 1)
_
x

1
_

_
y

2
_

_
z

3
_

_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

_
23
xyz
e

_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

xyz

3
( 2) ( 1)
_
x

1
_

_
y

2
_

_
z

3
_

_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

_
3

2
xyz
e

_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

2
xyz
.
Entonces obteniendo el logaritmo para la funci on de densidad se reduce a la siguiente
expresion que resulta ser justamente la que se usara en la programaci on para la estimaci on
de los par ametros
58
log f (x
i
, y
i
, z
i
) =log
_
_

2
_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

_2
+
_
3 3
2
_
_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

_
+
2
3 + 2
_
_
+ ( 3) log
_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

_
+

3
(log (z) log (
3
))

log (z)
_
_
z

3
_

+
_
y

2
_

+
_
x

1
_

_
+

2
(log (y) log (
2
))

log (y) +

1
(log (x) log (
1
))

log (x) 2 log () + log (


3
)
+ log (
2
) + log (
1
) + log (1) .
De igual manera el an alsis se realiza en R y los resultados se muestran el cuadro 3.
estimaci on error estandar LIC LSC

1
93.992 2.036 90.002 97.982

2
98.013 1.695 94.691 101.335

3
96.551 1.866 92.893 100.208

1
6.707 0.752 5.233 8.180

2
8.424 0.995 6.475 10.373

3
7.592 0.865 5.896 9.288
0.962 0.033 0.898 1.026
Cuadro 3: Estimaciones de maxima verosimilitud y errores est andar
De igual manera se establecen los iguientes contrastes de hip otesis para los par ametros
de forma
H
0
:
1
= 1 vs H
1
:
1
= 1
H
0
:
2
= 1 vs H
1
:
2
= 1
H
0
:
3
= 1 vs H
1
:
3
= 1
Los resultados para los tres par ametros de forma son signicativamente mayores a
1 (se rechaza H
0
) con un nivel de signicancia de = 0.05 lo que indica que los tres
grupos tienen un incremento mon otono en la funci on de riesgo, lo cual implica que hay un
aumento de la variaci on de los tiempos en que apareci o el tumor en cada grupo, en otras
59
palabras, el estado de salud de las ratas se empieza a degradar en el momento en que el
experimento se pone en funcionamiento.
Ahora el valor de la estimaci on del par ametro de asociaci on y de acuerdo al intervalo
de conanza obtenido se puede establecer que esta muy cercano a uno por lo que se
concluye que este indica que el tiempo de la aparicion del tumor para cada grupo de
tratamiento no est a asociado; es decir, que no tiene nada que ver el hecho de que las
ratas estuvieron en la misma cama, los tiempos de aparici on del tumor son totalmente
independientes.
Esto se observa tambien por los valores obtenidos en las correlaciones calculados medi-
ante R, donde se observa que son muy pequa nas. La correlaci on para el grupo de tratamien-
to (T) y el grupo de control C
1
es 0.1214949, la correlaci on para el grupo de tratamiento
(T) y el grupo de control C
2
es 0.3060662 y la correlaci on para los dos grupos de control
es 0.1227223.
6.3. Ajuste de una distribuci on normal a los datos
Se realizo el ajuste de los datos a una distribuci on normal multivariada.
La programaci on de esta distribuci on resulto un tanto sencilla puesto que en la parte
que corresponde a su an alisis (captulo 2) , se desarollaron todas las operaciones para
encontrar los estimadores de los parametros y . Ademas de que dichos estimadores
poseen una forma cerrada.
Finalmente los resultados que se obtuvieron para el vector de medias es el siguiente:
estimadores
x y z
87.15993 91.81994 89.29993
Observando los valores de este vector, se puede concluir que en la mayora de las ratas
puestas a prueba para cada grupo, la aparici on del tumor cancergeno estar a alrededor
del tiempo promedio dado anteriormente para x, y y z(en das). Una interpretaci on ya
mencionada en el captulo correspondiente, es que la mayora de los artculos que tienen
distribucion normal fallan alrededor de un tiempo promedio de falla .
60
En el apendice se muestra la programaci on de la distribuci on normal multivariada; se
realiz o tambien tomando la distribuci on log-normal como la distribuci on de los datos. De
esta forma se encontraron los estimadores para los par ametros.
La interpretaci on de los resultados para la log-normal es similar a la dada anterior-
mente. Solo que se debe tomar en cuenta que ahora se trabaja con los logartimos de los
datos originales.
61
Conclusiones
La teora de la conabilidad trata sobre la eciencia de los sistemas tecnol ogicos,
designandole a cada uno de ellos una funci on de probabilidad que permita discernir
si el sistema cumple satisfactoriamente con la funci on para el que fue dise nado durante
determinado peri odo y en condiciones especicadas de operaci on. En especial dicha teora
se ocupa de las fallas de los sistemas, sin necesariamente indagar, las causas de los mismos.
En sntesis permite predecir acerca del tiempo de vida de un conjunto de productos a traves
de un ajuste de una funcion de distribuci on estadstica.
La pregunta que surge, en general, a la hora de implementar la teora de fallas es
cual es la distribuci on optima que modela el problema a tratar. Lamentablemente no
existe un manual en el cual se pueda apoyar para garantizar la respuesta correcta a dicha
pregunta. Por lo tanto, algunas propiedades del sistema en estudio son las que permitir an
aproximarse a la resoluci on del problema planteado. Por ejemplo si los efectos de desgaste
en el tiempo pueden ser considerados despreciables, es coherente que se suponga que la
ley de falla exponencial ser a la m as apropiada.
La distribuci on normal permite, a traves del metodo de estimaci on m as conable de
par ametros, el de m axima verosimilitud, obtener expresiones analticas, para los esti-
madores, muy sencillas.
Por otro lado, la distribuci on Weibull es la m as utilizada, pues decribe ampliamente y
en gran cantidad los fen omenos del mundo real a la hora de analizar una gran cantidad
de funciones de conabilidad de dispositivos o sistemas. Resulta un tanto complicado el
hecho de hacer las estimaciones de los parametros de esta distribucion; en la parte de este
trabajo que corresponde a la revisi on de esta distribuci on, se realiza la estimacion mediante
Maxima Verosimilitud. Finalmente, tambien resulta conveniente hacer la estimaci on de
los par ametros mediante alg un Software estadstico ya que facilita de una gran manera la
realizacion de los c alculos.
Las cuatro distribuciones que se estudiaron en este trabajo son s olo algunas que sirven
para hacer los modelos que se utilizan en el estudio de las caractersticas de falla en
componentes o en sistemas de componentes.
62
Los resultados que se obtuvieron en el desarrollo del problema de aplicaci on respecto
a la estimaci on de los par ametros fueron muy similares a los obtenidos por Mantel y
Ciminear (1977), pero se aclara que no se puede realizar una comparaci on entre estos dos
resultados puesto que Mantel y Ciminear (1977) tomaron los datos como censurados, es
decir, que no tenian mucha informaci on en cuanto a los tiempos de aparici on del tumor
que causa el cancer. En este texto se tomaron todos los datos como completos lo que lo
diferenca de los analisis que ya se haban realizado. Finalmente, se llegan a los mismos
resultados, es decir que no exste dependencia respecto al tiempo de aparicion del tumor
entre las camadas.
La raz on por haber elegido la distribuci on Weibull para el ajuste de los datos es debido
a que esta distribucion es la que mayormente se utiliza en las Ciencias Biol ogicas para
estudiar la supervivencia a las bacterias y en la aparici on de ciertos tipos de cancer.
Ademas de que se caracteriza por considerar tasas de falla variables, es decir, su tasa de
falla h(t) es proporcional a las potencias de t (tiempo)
63
Apendice
A continuaci on se muestra el programa R que se realizo para encontrar las estimaciones
de los par ametros del problema para la distribuci on Weibull bivariada y Weibull trivariada.
Como primer paso se da la instrucci on a R para que lea los datos que se encuentran
en un archivo con extensi on .csv
> datos<-read.csv('weibullbivariado.csv', header=TRUE)
> datos
Enseguida se programa la funci on, esta es la parte m as importante, ya que aqu se
denen todas las operaciones que se quiere que haga R. Como ya se tiene el conjunto
de datos ahora se le indica a R que tome las columnas que los contiene, llam andole x y
y. Tambien se les asigna nombre a los par ametros que tomar a del vector de par ametros
iniciales theta, que se le indica posteriormente.
> logL <- function(data, theta) {
+ x <- data[, 1]
+ y <- data[, 2]
+ theta1 <- theta[1]
+ theta2 <- theta[2]
+ beta1 <- theta[3]
+ beta2 <- theta[4]
+ delta <- theta[5]
+ logf <- (log(delta * ((y/theta2)^(beta2/delta) +
+ (x/theta1)^(beta1/delta))^delta - delta + 1) +
+ (delta - 2) * log((y/theta2)^(beta2/delta) +
+ (x/theta1)^(beta1/delta)) + beta2 *
+ (log(y) - log(theta2))/delta - log(y) -
+ ((y/theta2)^(beta2/delta) + (x/theta1)^(beta1/delta))^delta +
+ beta1 * (log(x) - log(theta1))/delta -
+ log(x) - log(delta) + log(beta2) + log(beta1))
64
+ LogL <- sum(logf)
+ return(-LogL)
+ }
Usando la funcion con los par ametros especicados para vericar que la funci on no ten-
ga alg un error de sintaxis en la programaci on, aunque cabe se nalar que el valor resultante
no tiene aun una interpretacion especca.
> theta <- c(111.100393, 167.711837, 4.640092, 3.319167, 1.021193)
> logL(data = datos, theta = theta)
[1] 520.8957
Para encontrar el valor m aximo de la funcion as como los par ametros estimados se
utiliza la funci on ress, indicandole que tome el valor que se obtuvo de la funci on logL, as
como el vector de par ametros iniciales y el conjunto de datos.
> ress <- nlm(logL, c(111, 167.64, 4.39, 2, 1), data = datos, hessian = TRUE)
> ress
$minimum
[1] 413.8178
$estimate
[1] 94.1358695 98.0520357 6.7905148 8.5001113 0.9557944
$gradient
[1] -1.482438e-06 1.041190e-06 1.021262e-06 -3.671368e-06 3.075229e-05
$hessian
[,1] [,2] [,3] [,4] [,5]
[1,] 0.26032233 -0.01416407 -0.16279349 -0.01620193 -0.4964253
[2,] -0.01416407 0.37531286 -0.02405888 -0.14472511 -0.1979589
[3,] -0.16279349 -0.02405888 1.76508826 -0.18864448 -2.8691093
[4,] -0.01620193 -0.14472511 -0.18864448 1.07330766 -2.0687223
[5,] -0.49642532 -0.19795888 -2.86910932 -2.06872227 582.0705326
$code
65
[1] 1
$iterations
[1] 53
Con la siguiente instrucci on se calcula la matriz de varianzas y covarianzas que se obtiene
invirtiendo la matriz Hessiana
> mvarcov <- solve(ress$hessian)
> mvarcov
[,1] [,2] [,3] [,4] [,5]
[1,] 4.138142241 0.256314908 0.414870171 0.182105099 0.006308602
[2,] 0.256314908 2.842195604 0.111718419 0.412921637 0.003203446
[3,] 0.414870171 0.111718419 0.627691143 0.139322714 0.003980965
[4,] 0.182105099 0.412921637 0.139322714 1.023519056 0.004620148
[5,] 0.006308602 0.003203446 0.003980965 0.004620148 0.001760518
Con la instrucci on eeparms se indica que de la matriz de varianzas y covarianzas se
saque la raz cuadrada de los valores de la diagonal.
> eeparms <- sqrt(diag(mvarcov))
> ress$estimate
[1] 94.1358695 98.0520357 6.7905148 8.5001113 0.9557944
> eeparms
[1] 2.03424242 1.68588125 0.79226961 1.01169119 0.04195852
Finalmente se utiliza un alfa del 0.05 por ciento para hacer los intervalos de conanza
con las instrucciones lsc y lic.
> alfa <- 0.05
> lsc <- ress$estimate + qnorm(alfa/2, lower.tail = FALSE) * eeparms
> lic <- ress$estimate - qnorm(alfa/2, lower.tail = FALSE) * eeparms
66
> resultado <- cbind(ress$estimate, eeparms, lic, lsc)
> colnames(resultado) <- c("estimacion", "error estandar", "LIC", "LSC")
> rownames(resultado) <- c("theta1", "theta2", "beta1", "beta2", "delta")
> resultado
estimaci on error estandar LIC LSC
theta1 94.1358695 2.03424242 90.1488276 98.122911
theta2 98.0520357 1.68588125 94.7477691 101.356302
beta1 6.7905148 0.79226961 5.2376949 8.343335
beta2 8.5001113 1.01169119 6.5172330 10.482990
delta 0.9557944 0.04195852 0.8735572 1.038032
En el programa para obtener los estimadores de los par ametros de la Weibull trivariada
se realizan los calculos de manera an aloga a la Weibull bivariada.
> datos<-read.csv('weibulltrivar.csv', header=TRUE)
> datos
> logL <- function(data, theta) {
+ x <- data[, 1]
+ y <- data[, 2]
+ z <- data[, 3]
+ theta1 <- theta[1]
+ theta2 <- theta[2]
+ theta3 <- theta[3]
+ beta1 <- theta[4]
+ beta2 <- theta[5]
+ beta3 <- theta[6]
+ delta <- theta[7]
+ logf <- (log(delta^2 * ((z/theta3)^(beta3/delta)
+ + (y/theta2)^(beta2/delta)
+ + (x/theta1)^(beta1/delta))^(2 * delta)
+ + (3 * delta - 3 * delta^2) *
+ ((z/theta3)^(beta3/delta)
67
+ + (y/theta2)^(beta2/delta)
+ + (x/theta1)^(beta1/delta))^delta +
+ delta^2 - 3 * delta + 2)
+ + (delta - 3) * log((z/theta3)^(beta3/delta)
+ + (y/theta2)^(beta2/delta) + (x/theta1)^(beta1/delta))
+ + (beta3 * (log(z) - log(theta3)))/delta - log(z)
+ - ((z/theta3)^(beta3/delta) +
+ (y/theta2)^(beta2/delta)
+ + (x/theta1)^(beta1/delta))^delta +
+ (beta2 * (log(y) - log(theta2)))/delta
+ - log(y) + (beta1 *(log(x) - log(theta1)))/delta
+ - log(x) - 2 * log(delta) + log(beta3) + log(beta2)
+ + log(beta1))
+ LogL <- sum(logf)
+ return(-LogL)
+ }
> theta <- c(112, 157, 154, 4.3, 3.56, 2.89, 1)
> logL(data = datos, theta = theta)
[1] 762.9521
Para encontrar el valor m aximo de la funcion as como los par ametros estimados se realiza
lo siguiente
> ress <- nlm(logL, c(112, 157, 154, 4.3, 3.56, 2.89, 0.9), data = datos,
+ hessian = TRUE)
> ress
$minimum
[1] 619.9122
$estimate
[1] 93.9919586 98.0129758 96.5506390 6.7065192 8.4237653 7.5920783
[2] 0.9622371
68
$gradient
[1] -2.180797e-06 1.113520e-07 -2.515106e-06 5.441493e-06 -1.268621e-06
[7] -8.670179e-06 -2.432898e-05
$hessian
[,1] [,2] [,3] [,4] [,5] [,6]
[1,] 0.258437021 -0.01051280 -0.01121236 -0.15103578 -0.006018825 -0.01764527
[2,] -0.010512803 0.36950116 -0.01293092 -0.01043569 -0.138862691 -0.01649230
[3,] -0.011212364 -0.01293092 0.31006510 -0.02613458 -0.014395675 -0.15290718
[4,] -0.151035784 -0.01043569 -0.02613458 1.95437051 -0.057173302 -0.20959995
[5,] -0.006018825 -0.13886269 -0.01439567 -0.05717330 1.098829784 -0.10721573
[6,] -0.017645275 -0.01649230 -0.15290718 -0.20959995 -0.107215729 1.48189575
[7,] -1.038914329 -0.25466598 -1.04994381 -4.93418788 -3.424246057 -2.55576067
[7]
[1,]-1.038914
[2,]-0.254666
[3,]-1.049944
[4,]-4.934188
[5,]-3.424246
[6,]-2.555761
[7,]997.708059
$code
[1] 1
$iterations
[1] 91
> mvarcov <- solve(ress$hessian)
> mvarcov
[,1] [,2] [,3] [,4] [,5] [,6]
[1,] 4.144059569 0.190453284 0.293431634 0.363015622 0.106980276 0.153291727
[2,] 0.190453284 2.873592753 0.208726383 0.062447814 0.389234008 0.098035118
[3,] 0.293431634 0.208726383 3.482811040 0.133513017 0.139381428 0.404846343
69
[4,] 0.363015622 0.062447814 0.133513017 0.565170489 0.063697978 0.109945410
[5,] 0.106980276 0.389234008 0.139381428 0.063697978 0.989052861 0.108046890
[6,] 0.153291727 0.098035118 0.404846343 0.109945410 0.108046890 0.748807779
[7,] 0.007227768 0.003047323 0.006199716 0.003829773 0.004343766 0.003443425
[,7]
[,1]0.007227768
[,2]0.003047323
[,3]0.006199716
[,4]0.003829773
[,5]0.004343766
[,6]0.003443425
[,7]0.001059795
> eeparms <- sqrt(diag(mvarcov))
> ress$estimate
[1] 93.9919586 98.0129758 96.5506390 6.7065192 8.4237653 7.5920783 0.9622371
> eeparms
[1] 2.03569634 1.69516747 1.86622910 0.75177822 0.99451137 0.86533680 0.03255449
> alfa <- 0.05
> lsc <- ress$estimate + qnorm(alfa/2, lower.tail = FALSE) * eeparms
> lic <- ress$estimate - qnorm(alfa/2, lower.tail = FALSE) * eeparms
> resultado <- cbind(ress$estimate, eeparms, lic, lsc)
> colnames(resultado) <- c("estimacion", "error estandar", "LIC", "LSC")
> rownames(resultado) <- c("theta1", "theta2", "theta3", "beta1", "beta2",
+ "beta3", "delta")
> resultado
estimaci on error estandar LIC LSC
theta1 93.9919586 2.03569634 90.0020671 97.981850
theta2 98.0129758 1.69516747 94.6905086 101.335443
70
theta3 96.5506390 1.86622910 92.8928972 100.208381
beta1 6.7065192 0.75177822 5.2330610 8.179977
beta2 8.4237653 0.99451137 6.4745588 10.372972
beta3 7.5920783 0.86533680 5.8960493 9.288107
delta 0.9622371 0.03255449 0.8984315 1.026043
Finalmente se muestra la programaci on de la normal multivariada para las tres varia-
bles y como se realizara tomando la log-normal como la distribuci on de los datos.
> library(mvtnorm)
> lmv3 <- function(theta, y) {
+ mu <- theta[1:3]
+ sigma <- matrix(c(theta[4:6], theta[5], theta[7:8],
+ theta[6], theta[8], theta[9]), nrow = 3,
+ byrow = T)
+ logl <- -log(prod(dmvnorm(datos, mean = mu,
+ sigma = sigma)))
+ return(logl)
+ }
Enseguida se eval ua el logaritmo de la verosimilitud para obtener los estimadores de
los par ametros de la funci on. Los primeros tres componentes del vector p representan la
media de los datos y los siguientes son los elementos de la matriz de varianzas y covarianzas
.
> nlm(lmv3, p = c(87.16, 91.82, 89.3, 336.74939, 36.0702,
+ 96.97143, 261.74245, 34.27959, 298.09184), y = datos,
+ hessian = TRUE)
$estimate
[1] 87.15993 91.81994 89.29993 330.01683 35.34773 95.03163
[7] 256.50732 33.59306 292.12675
Se ejemplica para una distribucion lognormal multivariada, y se realiza todo el pro-
cedimiento tal y como se indica en el apartado en el que se hace menci on a esta distribucion
como parte de la distribuci on normal multivariada.
71
> y <- datos
> x <- log(y)
> vh <- apply(x, 2, mean)
> vh
x y z
4.439080 4.501062 4.470043
> Dh <- cov(x)
> Dh
x y z
x 0.06817301 0.008643360 0.020201319
y 0.00864336 0.042845712 0.006510546
z 0.02020132 0.006510546 0.049541689
> mu <- exp(vh + diag(Dh)/2)
> mu
x y z
87.63382 92.06404 89.55150
> sigma11 <- exp((vh[1]+vh[1])+(Dh[1,1]+Dh[1,1])/2)*(exp(Dh[1,1])-1)
> sigma12 <- exp((vh[1]+vh[2])+(Dh[1,1]+Dh[2,2])/2)*(exp(Dh[1,2])-1)
> sigma13 <- exp((vh[1]+vh[3])+(Dh[1,1]+Dh[3,3])/2)*(exp(Dh[1,3])-1)
> sigma22 <- exp((vh[2]+vh[2])+(Dh[2,2]+Dh[2,2])/2)*(exp(Dh[2,2])-1)
> sigma23 <- exp((vh[2]+vh[3])+(Dh[2,2]+Dh[3,3])/2)*(exp(Dh[2,3])-1)
> sigma33 <- exp((vh[3]+vh[3])+(Dh[3,3]+Dh[3,3])/2)*(exp(Dh[3,3])-1)
> Sigma <- matrix(c(sigma11,sigma12,sigma13,sigma12,sigma22, sigma23,
sigma13,sigma23,sigma33),nrow = 3,byrow=T)
> Sigma
[,1] [,2] [,3]
[1,] 541.8058 70.03620 160.14684
[2,] 70.0362 371.04316 53.85113
[3,] 160.1468 53.85113 407.30414
72
Referencias
Alvin, C. Rencher. 1998. Multivariate Statistical Inference and Applications. Departament
of Statistics, Bringham Young University. A Wiley-Interscience Publication.
Basu, A. P., y Sun, K. 1997. Multivariate Exponential Distribution With Constant Failure
Rates. Journal of a multivariate analysis,, 159169.
Blackwell, D. 1947. Conditional Expectation and Unbiased Sequential Estimation. Annals
of Mathematical Statistics, 18, 105.
Block, H. W. 1975. Continuos Multivariate Exponential Extensions, in Reliability and
Fault Tree Analysis. R. E. Barlow, J.B. Fussell and N. D. Singpurwalla, eds. Philadephia,
Pennsylvanis: Society for Industrial and Applied Mathematics.
Block, H. W. 1977. A Characterization of a Bivariate Exponential Distribution. Ann.
Statist., 5(4), 808812.
Condra, Lloyd W. 1993. Reliability Improvement with Design of Experiments. New York;
Marcel Dekker.
Cramer, E., y Kamps, U. 1997. The UMVUE of P(X<Y) Based on Type II Censored
Samples from Weinman Multivariate Exponential Distributions. Metrika, 93121.
D.G, Weinman. 1996. A Multivariate Extension of the Exponential Distribution. Ph D.
dissertation, Arizona State University, Tempe, Arizona.
Freund, J. 1961. A Bivariate Extension of the Exponential Distribution. Journal of the
American Statistical Association.
Hanagal, D. D., y Kale, B. K. 1991. Large Sample Test of Independence for an Absolute-
ly Continuos Bivariate Exponenrial Model. communications in Statistic-Theory and
Methods, 13011313.
Hanagal, D., David. 1997. A Multivariate Weibull Distribition. Departamet of Statistics,
University of Pune, Visiting Professor, Colegio de Posgraduados, ISEI.
73
Hanagal, D.D. 1993. Some Inference Results in an Absolutely Continuous Multivariate
Exponential Model of Block. Statistics and Probability Letters, 16, 177180.
Hougaard, P. 1986. A Class of Multivariate Failure Time Distributions. Biometrika, 73,
671678.
Johnson, A. Richard, y Wichern, W.Dean. 1998. Applied Multivariate Statistical Analysis.
Prentice Hall, Upper Saddle River, New Jersey.
Johnson, N. L., Kotz S., y Kemp, A. W. 1992. Univariate Discrete Distributions. New
York: John Wiley and Sons.
Knuth, D. E. 1992. Two Notes on Notation. The American Mathematical Monthly, 99,
403422.
Lawless, J. F. 2003. Statistical Models and Methods for Lifetime Data. Wiley Series in
Probability and Statistics.
Li, C. L. 1997. A Model for Informative Censoring. Ph.D. thesis, The University of
Alabama at Birmingham.
Lu, J. C., y Bhattacharyya, G. 1990. Some News Constructions of Bivariate Weibull
Models. Annals of the Institute of Statistical Mathematics, 42, 543559.
Luis, A. Escobar, R. Enrique R. Villa D., y Sergio, Ya nez, C. 2003. Conabilidad: Historia,
Estado del arte y Desafos Futuros. Red de Revistas Cientcas de America Latina y el
Caribe, Espa na y Portugal.
Luna, Ana Eugenia. 2005. Teora de la Conabilidad. Departamento de Fsica, Universi-
dad de Buenos Aires, Facultad de Ciencias Exactas y Naturales.
M., G., y Savits, T. H. 1996. A Multivariate Faa Di Bruno Formula With Applications.
American Mathematical Society, 358, 503520.
Mantel, N., Bohidar N. R., y Ciminear, J. L. 1977. Mantel-Haenzel Analyses of Litter-
matched time-to-response data, with modications for recovery of intertitter informa-
tion. Cnacer research, 37, 38633868.
Marshall, A. W., y Olkin, I. 1967. A Multivariate Exponential Distribution. Journal of
the American Statistical Association.
74
Meeker, William Q, y Escobar, Luis A. 1998. Statistical Methods for Reliability Data.
Jonh Wiley and Sons, New York.
Montesinos, L opez Abelardo. 2009. An alisis Estadstico de Datos. Tesis de Licenciatura,
Universidad Aut onoma Chapingo, Chapingo, Edo. Mexico.
Proschan, F., y Sullo, P. 1976. Estimating the Parameters of a Multivariate Exponential
Distribution. Journal of the American Statistical Association, 465472.
Ross, S. M. 2006. A First Course in Probability. New Jersey: Prentice Hall, Upper Saddle
River.
Tamborero, del Pino., Jose Mara. 2006. Fiabilidad de Componentes: la distribuci on
exponencial. Centro Nacional de Trabajo, Ministerio de Trabajo y Asuntos Sociales
Espa na.
Weinman, D. G. 1966. A Multivariate Extension of the Exponential Distribution. Ph.D.
thesis, Arizona State University.
75

Você também pode gostar