Você está na página 1de 19

2.

MODELOS PROBABILISTICOS
2.1
2.1.1

Funciones de Probabilidad
Variable Discreta

Un modelo probabilstico de un experimento requiere asociar un valor de


probabilidad a cada punto del espacio muestral. En el caso de las variables aleatorias
discretas, la funcin que asocia una probabilidad a la variable se denomina funcin de
probabilidad de masa (fpm), y se designa por px(x0) . Esta funcin representa la
probabilidad que la variable aleatoria X tome el valor x0 en la realizacin del experimento.
Usualmente, la funcin de probabilidad de masa se representa por un grfico de barras para
cada valor de la variable aleatoria.
Cualquier funcin matemtica es una posible funcin probabilidad de masa siempre
que cumpla las siguientes dos propiedades que se derivan directamente de los axiomas de
probabilidad. En primer lugar, su valor debe estar comprendida entre 0 y 1 ya que
representa una probabilidad, y en segundo trmino la sumatoria para todos los posibles
valores de x debe ser unitaria, ya que representa la probabilidad del evento universal.
El concepto de funcin probabilidad de masa puede extenderse al caso de varias
variables. En especial, para dos variables, se define la funcin de probabilidad de masa
compuesta, como la probabilidad que los valores experimentales de la variable aleatoria X
e Y, al realizar un experimento sean iguales a x0 e y0 respectivamente y se designa por
pXY (x0, y0).
Anlogamente al caso anterior, esta funcin tiene las siguientes propiedades :

p
x y

p
x

XY

XY

( x 0 , y0 ) = 1

( x0 , y0 ) = pY ( y0 )

p
y

XY

( x0 , y0 ) = p X ( x0 )

Las funciones pX(x0) y pY(y0) se denominan funciones de probabilidad de masa


marginales.
Dos conceptos adicionales de gran utilidad son la funcin de probabilidad
acumulada o funcin distribucin acumulada (FDA) y la nocin del valor esperado. Se
define funcin distribucin acumulada (FDA) a la funcin que establece la probabilidad

que la variable aleatoria X tome valores menores o iguales a un valor dado en la


realizacin del experimento.
Prob( X x0 ) = PX ( x0 ) = p X ( x0 )
x

Esta funcin es siempre positiva, est comprendida entre 0 y 1 y es creciente,


debido a los axiomas de probabilidad y a las propiedades de la funcin probabilidad de
masa.
El valor esperado de una funcin bi-unvoca de una variable aleatoria X es la
sumatoria para todos los posibles valores de X del producto de la funcin por la fpm
evaluada en el mismo punto que la funcin.
E {g( x )} = g( x0 ) p X ( x0 )
x

En particular, son importantes algunos casos especiales de la funcin g(x) como ser
el valor esperado de potencias enteras de x, los cuales se denominan momentos de x. Se
puede definir tambin, la potencia centrada con respecto al valor esperado o momento
central n-simo de x. El primer momento de x se conoce tambin como valor esperado o
promedio de x (E(x)) y el segundo momento central se conoce como varianza de x (sx2) :
E ( x n ) = x n p X ( x0 )
x

E ( x ) = x0 p X ( x0 )
x

sx2 = {E ( x E ( x )) 2 } = ( x0 E ( x)) 2 p X ( x0 )
x

2.1.2

Variable Continua

La probabilidad asociada a una variable continua, est representada por la funcin


densidad de probabilidades (fdp). Si X es una variable aleatoria continua en el rango - a
+ se define :
b

Prob(a x b) =

f
a

( x )dx

Siendo fX(x) = la funcin densidad de probabilidades.


La integral representa el rea marcada (Figura 2.1), la cual es igual a la
probabilidad que el valor de la variable aleatoria x est comprendido en el intervalo a, b.
Esta funcin tiene la propiedad de ser positiva y de encerrar un rea unitaria bajo ella al
ser integrada para todo el rango de la variable aleatoria. Es decir, se cumple que :
+

0 < fX(x) < +

f X (x) dx = 1

f x (x)

x
a

Ilustracin 2.1.2.1: rea que representa la Prob (a x b).


Es importante recalcar que en este caso la probabilidad de un evento, est asociada
al rea bajo la curva de la funcin densidad de probabilidades y no al valor de la funcin,
lo cual implica que siendo X una variable continua, la probabilidad asociada a un valor
especfico es nula y slo se puede hablar de probabilidad asociada a un intervalo de la
variable.
Se define funcin de distribucin acumulada (FDA) de la variable X a la
probabilidad de que la variable aleatoria sea menor o igual a un valor dado:
xo

Prob(x < x0) = FX (x0) =

f x (x) dx

La funcin distribucin acumulada mide la probabilidad que en una realizacin


cualquiera de un experimento el valor de la variable sea menor o igual al valor x0 y tiene
las siguientes propiedades:
Fx (+) = 1

Fx (-) = 0

Prob(a < x < b) = Fx (b) - Fx (a)


Fx (b) > Fx (a) para b > a
dFX ( x )
= f X ( x)
dx
Si un experimento queda definido por varias variables aleatorias, entonces las
probabilidades se determinan mediante una funcin densidad de probabilidades
compuesta.
Los valores esperados y los momentos se calculan mediante la integracin del
producto de la funcin densidad de probabilidades por la funcin para todo el rango de la
variable aleatoria.
+

E(g(x)) =

g(x) fX(x) dx

o bien en el caso de dos variables :


E(g (x,y)) =

g (x, y) f(x,y) dx dy

En la Tabla 2.1 se resumen las expresiones para las funciones densidad de


probabilidades y funciones de distribucin acumulada para los modelos de uso habitual en
los estudios hidrolgicos.

Tabla 2.1.2.1: Funciones densidad y probabilidad acumulada


Funcin densidad de
probabilidades f (x )
o Funcin distribucin acumulada
F (x)

Distribucin

x
F (x ) = exp e

Valores extremos
tipo I
(Gumbel o EV1)

Valores extremos
generalizados
(GEV)

1

x u
F (x ) = exp 1 k

Rangos de variable
aleatoria y parmetros

x
>0

>0

u + x Si k < 0
k

< x u+
Si k >0
k

a
x

f (x ) =
exp

a ( )
a

Pcarson Tipo III

Si > 0

Si < 0

1
(
x / a)
x
f (x ) =
exp
( )
a

Gama:
Pearson Tipo III
con = 0
Exponencial:
Pearson Tipo III
con = 1

Lognormal-2
(LN2)

f (x ) =

f (x ) =

1
x
exp

a
a

1 log x 2
1

exp

2x

2

0< x

Funcin densidad de
probabilidades f (x )
o Funcin distribucin acumulada
F (x)

Distribucin

Lognormal-3
(LN3)
Valores extremos
de dos
componentes
(TCEV)
Wakeby (WAK)

2.2

f (x ) =

Rangos de variable
aleatoria y parmetros

1 log(x )
1

exp

2 .(x )
2
<x

F (x ) = exp A1e x / 1 A2 e x / 2

] [

x>0
1 > 0

2 > 0

x = m + a 1 (1 F (x )) c 1 (1 F (x ))
b

Estimacin de Parmetros

Los modelos probabilsticos constituyen herramientas matemticas para manejar


variables aleatorias y para asociar probabilidades a los distintos valores de ellas. El hidrlogo
al trabajar con registros observados requiere elegir el modelo ms adecuado para representar
la muestra y adems estimar los parmetros del modelo seleccionado. Una vez elegido el tipo
de modelo a emplear, se debe estimar, utilizando los registros observados, los parmetros del
modelo, para lo cual existen diversos procedimientos. Las metodologas usuales para ello son
el mtodo de mxima verosimilitud, el mtodo de los momentos, y el mtodo de momentos
ponderados por probabilidad
2.2.1

Mtodo de mxima verosimilitud

Se define como funcin de verosimilitud de n variables aleatorias x1, x2, x3,.........xn a


la funcin densidad de probabilidad conjunta de las n variables, g(x1, x2, x3,........xn, Q). En
particular, si x1, x2,......., xn es una muestra aleatoria de la funcin densidad f(x,Q) entonces,
la funcin verosimilitud es:
L(Q) = g(x1, x2,..., xn, Q) = f(x1,Q) f(x2, Q) ...... f(xn,Q)

La funcin de verosimilitud da entonces la probabilidad que las variables aleatorias


tomen valores particulares x1, x2,....... xn.
Si es el valor de Q que maximiza L(Q) entonces, se dice que es el estimador de
mxima verosimilitud de Q.
El estimador de mxima verosimilitud es la solucin de la ecuacin que anula la
primera derivada de la funcin de verosimilitud con respecto al parmetro. Para facilitar la
bsqueda del parmetro, se aprovecha la condicin que las funciones L(Q) y su logaritmo
tienen sus mximos para el mismo valor de Q, ya que en algunos casos es ms simple
encontrar el mximo del logaritmo de la funcin. El procedimiento de mxima verosimilitud
tiene ventajas tericas para la estimacin de los parmetros de un modelo, cuando las
muestras son de tamao grande, pues entrega estimadores no sesgados, lineales y de mnima
varianza.
El clculo de los parmetros de los distintos modelos por este procedimiento es ms
complejo que por otros mtodos, pues generalmente se debe resolver la ecuacin resultante
por mtodos iterativos, para encontrar el valor de los parmetros que maximizan la funcin
logartmica presentada. Este clculo requiere resolver el sistema de ecuaciones que se
forma al igualar a cero la primera derivada de la funcin de verosimilitud o del logaritmo
de dicha funcin, con respecto a cada uno de los parmetros. En la Tabla 2.2 siguiente se
muestran las expresiones para el logaritmo de la funcin de verosimilitud de varios
modelos probabilsticos.

Tabla 2.2.1.1:Logaritmo de las funciones de verosimilituD

Modelo

Logaritmo natural de la funcin


1 n ln xi

n ln 2 n ln ln xi
2 i =1

i =1

Log-normal-3

1 ln (xi )

n ln 2 n ln ln(xi )
2

Valores Extremos I

Valores Extremos
Generalizada

k (xi u )

n ln exp ln1

i =1

1/ k

k (xi u )

(1 k ) exp ln1

i =1

Gama-2

1/ k

i =1

i =1

n ln ( ) n ln + ( 1) ln xi
n

Pearson Tipo III

n
(x )
1 n xi

e i
i =1

i =1

n ln

xi

n ln ( ) n ln + ( 1) ln (xi )
i =1

2.2.2

Log-normal-2

xi

Mtodo de los momentos

Este mtodo se apoya en un teorema fundamental de la teora de muestreo que


expresa que los momentos de la muestra son buenos estimadores de los momentos de la
poblacin o universo. En consecuencia, este mtodo establece que dado un conjunto de
observaciones x1, x2, .... xn de la variable aleatoria x, un buen estimador del promedio del
universo es el promedio de la muestra:

xbar =

1 n
x
n i =1 i

mientras que el estimador de la varianza 2 es la varianza de la muestra S2.


S2 =

1 n
( x xbar ) 2
n i =1 i

o bien, un estimador no sesgado es :


1 n
S =
( xi xbar ) 2

n 1 i =1
2

Se pueden encontrar ecuaciones similares para los momentos de orden superior,


siendo los dos primeros momentos suficientes para las distribuciones de dos parmetros. No
siempre los parmetros de una distribucin son exactamente iguales a los dos primeros
momentos. Sin embargo, los parmetros son funciones de los momentos y puede resolverse
el sistema de ecuaciones resultante para encontrar los parmetros.
En general la estimacin de los parmetros de una muestra utilizando el
procedimiento de los momentos es el ms sencillo, pues requiere obtener de la muestra los
estimadores de tantos momentos como parmetros tenga el modelo de distribucin. En
seguida se forma un sistema de ecuaciones igualando los estimadores calculados de la
muestra con los correspondientes momentos del universo o poblacin. As se forma un
sistema de tantas ecuaciones como parmetros hay que estimar. En la Tabla 2.3 se
muestran las expresiones para calcular los parmetros de varios modelos probabilsticos
usando el mtodo de los momentos. Las expresiones estn en funcin del promedio de la
muestra (xbar) , la desviacin estndar (S), el coeficiente de variacin (Cv) y el coeficiente
de asimetra (g1).
El promedio y la varianza de la muestra son a su vez, variables aleatorias, y como tal,
puede estudiarse su valor medio, su varianza y su distribucin. En especial, es importante la
relacin entre ellos y el valor esperado de la variable x. Se puede demostrar, utilizando el
teorema del Lmite Central, que el valor esperado del promedio de la muestra es igual al
promedio de la variable aleatoria x y que la varianza del promedio o error medio cuadrtico
es 2/n. Una estimacin puntual de un parmetro es a veces poco conveniente, ya que rara
vez coincide con el parmetro. Por esta razn, se prefiere a veces, realizar una estimacin
mediante un intervalo (I, S) en el cual I es el lmite inferior y S es el lmite superior del
intervalo. Este intervalo se denomina intervalo de confianza o de significacin del
estimador.

Tabla 2.2.2.1:Parametros de los modelos de distribucion


Modelos

Parmetro

Parmetro

xbar

Normal
Log-normal-2

1
ln ln 1 + C v2
z 2

Parmetro

ln(1 + C v2 )
xbar (1 C v / z )

Lognor
mal-3

Valores
Extremos I
Gama-2
Pearson III

2.2.3

ln
z

1
2
ln 1 + C v
2

ln(1 + C v2 )

1,2825 /

xbar 0,45005

xbar S 2

S 2 xbar

(2 g1 )2

2
1
z = 1 w 3 / w 3

w = 1 * g + g2 + 4
2

xbar S

Mtodo de Momentos Ponderados por Probabilidad

Greenwood y otros autores (1979) recomendaron estimar los parmetros de diversas


distribuciones mediante el mtodo de momentos ponderados por probabilidad (MPP), ya que
este procedimiento tiene caractersticas preferibles al de mxima verosimilitud o de
momentos convencionales, cuando el tamao de la muestra es limitado. Los momentos
ponderados por probabilidad se definen como el valor esperado del producto de tres
trminos: la variable aleatoria (x), la funcin de distribucin acumulada (F(x)) y el
complemento de esta funcin. De esta forma el MPP de orden l, j, k se calcula mediante la
siguiente expresin:
l

M i , j ,k = E ( x i F j (1 F ) k ) = x i F j (1 F ) k dF
0

Los momentos convencionales son un caso especial de los MPP, ya que en ellos el
exponente i es unitario y los otros dos exponentes son nulos.

Para facilitar el clculo de los MPP se usan valores particulares para los exponentes.
Por ejemplo, para la distribucin Wakeby se recomienda usar un valor unitario para el
exponente i y nulo para el exponente j. En este caso se denomina M1.0.k al MPP de orden k, y
se designa simplemente por Mk (Greenwood et al., 1979). Para las distribuciones de valores
extremos generalizados y tipo I se recomienda un exponente unitario para i y nulo para k,
obtenindose los momentos Mj.
Landwehr y otros autores (1979a) recomiendan calcular estimadores de los MPP a
partir de la muestra, utilizando la siguiente expresin, que entrega MPP sesgados para k
positivo, en funcin del tamao de la muestra (n), de los valores de caudales ordenados en
forma creciente (xi) y del nmero de orden (i) de cada valor en la lista:
Mk =

1 n
x ((n i + 0,35) / n) k
n i =1 i

Los autores nombrados tambin exploraron el empleo de estimadores sin sesgo para
los MPP, pero reportan que los estimadores moderadamente sesgados proporcionan mejores
resultados, particularmente al estimar los valores de los cuantiles superiores, lo cual es
especialmente relevante en el contexto del anlisis de frecuencia de crecidas.
Para encontrar estimadores con este mtodo, se debe establecer una igualdad entre
los momentos ponderados del modelo y los correspondientes de la muestra, formndose un
sistema de ecuaciones con tantas ecuaciones como parmetros hay que estimar.
Los momentos de la muestra se calculan ponderando cada valor por la probabilidad
Fi :
Fi =

i 0,35
N

El ndice i representa el nmero de orden de cada valor de la muestra ordenada en


valores crecientes, es decir, i vale uno para el valor ms pequeo. Los momentos se
estiman por las expresiones siguientes (Hosking et al., 1985) :
1
M$ j =
N

F
i =1

xi

o bien
1 N
$
M K = (1 Fi ) k xi
N i =1

Los momentos ponderados del universo o poblacin dependen del modelo


probabilstico que se emplee. A continuacin se incluyen las expresiones para diferentes
modelos.

Tabla 2.2.3.1 :Momentos ponderados por probabilidad


Distribucin
EV1

Distribucin inversa y frmula de MPP


x = + ( In InF ),
M1 j0 =

GEV

Wakeby

] )

] [

x = m + a 1 (1 F ) c 1 (1 F )
M 10 k =

2.3

{1n(1 + j ) + 0,57721}
+
1+ j
1+ j

k
1 ( ln F )
k
1
k
=
u + 1 ( j + 1) (1 + k ) / k
1+ j

x=u+
M 1 jo

F=Prob ( X x )

],

m
ac
a
c
+

+
1+ k 1+ k 1+ k + b 1+ k d

Seleccin de Modelos

El nico procedimiento para verificar el comportamiento de un modelo matemtico,


ya sea probabilstico o determinstico, es comparar las predicciones efectuadas por el modelo
con observaciones de la realidad. Si el modelo es determinstico, y no existe error
experimental, entonces la comparacin con los valores observados es simple y concluyente.

Sin embargo, en el caso de modelos probabilsticos, debido a la naturaleza misma del


modelo, las observaciones son slo una muestra de la realidad, y en consecuencia una
repeticin del ensayo puede dar un resultado diferente. Resulta, pues, poco probable
encontrar una correspondencia exacta entre modelo y realidad, an cuando las hiptesis sean
vlidas. Por ello, es necesario definir la magnitud de la discrepancia que puede obtenerse sin
que sea necesario desechar la hiptesis estudiada. Al ser la variable observada una variable
aleatoria, pueden producirse grandes diferencias, aun cuando ello sea poco probable. Por
otro lado, una correspondencia entre la prediccin y la observacin tampoco es suficiente
para garantizar que la hiptesis sea cierta.
En la eleccin de un modelo probabilstico, es conveniente considerar todo el
conocimiento que se tenga sobre la variable. Por ejemplo, puede haber ciertas limitantes
fsicas que hagan imposible la existencia de valores negativos, valores lmites, etc. Si el
modelo no concuerda con estas limitantes, cabe entonces, preguntarse si esas discrepancias
son o no importantes, al adoptar un determinado modelo. Otra medida cualitativa sobre la
bondad del modelo, es su facilidad de tratamiento matemtico u operativo, la cual tambin
conviene considerar.
Fuera de estas nociones cualitativas deben considerarse ciertos aspectos cuantitativos.
A saber, pueden calcularse los momentos de orden superior de la distribucin y compararlos
con los valores calculados a partir de la muestra. Sin embargo, es preciso tener presente que
el error medio cuadrtico cometido en la estimacin de dichos momentos, aumenta al
incrementar el orden de momento y por ello disminuye la precisin en los estimadores.
Tambin se recomienda comparar las probabilidades observadas con las calculadas con el
modelo, lo cual puede realizarse grficamente o analticamente.
2.3.1

Mtodos grficos

Para verificar el modelo propuesto, se recurre usualmente a comparaciones grficas


entre el modelo y los datos, ya sea utilizando la funcin densidad de probabilidad, o bien, la
distribucin acumulada. En ambos casos, la comparacin grfica permite una visualizacin
rpida del ajuste del modelo e indica las zonas en las cuales el ajuste es deficiente. Ello
permite decidir sobre la bondad del ajuste, estimar los distintos percentiles de la distribucin
y los parmetros del modelo.
Una etapa til en el anlisis es dibujar los datos en forma de un grfico de barras. Al
graficar las frecuencias observadas para cada intervalo del variable se obtiene un histograma,
en el cual la altura de cada barra es proporcional al nmero de observaciones en ese
intervalo. Este grfico entrega al ingeniero un cuadro inmediato de las frecuencias
observadas en cada intervalo y su comparacin con el modelo propuesto.
Para estudiar el ajuste de los datos al modelo, se procede a graficar la curva de
distribucin acumulada. Para facilitar la decisin se acostumbra a usar un papel especial de

modo que el modelo probabilstico se representa en l por una recta. Para ello, se deforma la
escala de las abscisas de modo de estirar los extremos de la distribucin.
Para preparar un grfico de probabilidades para un conjunto de valores se sigue el
siguiente procedimiento :
i) Se obtiene un papel especial, llamado papel de probabilidades, diseado para el
modelo en estudio. Existen papeles para la distribucin normal, log-normal y valores
extremos tipo I.
ii) Se ordenan las observaciones en orden creciente en magnitud.
iii) Se grafican las observaciones en el papel de probabilidades, asignndoles a cada
una, una probabilidad o posicin de ploteo. Existen varias posiciones de ploteo y en la
actualidad una de las preferidas es la propuesta por Weibull, que entrega un estimador no
sesgado de probabilidad. En este caso la probabilidad se calcula con la siguiente expresin:
Prob( x X ) =

m
n +1

siendo

m = nmero de orden
n = nmero de datos.

Se utiliza tambin el concepto de perodo de retorno que se define como el tiempo


para el cual en promedio se produce un evento igual o superior al considerado.
Es decir,
Tr =

1
1 Prob( x X )

o bien,
Tr =
iv)

n +1
nm

Si los puntos graficados se ajustan a una recta, entonces el modelo elegido


representa un buen ajuste y se traza la recta en forma visual. Si los puntos no
representan una tendencia lineal, entonces el modelo elegido no es adecuado.

2.3.2

Mtodos cuantitativos

Los mtodos anteriores permiten juzgar en forma grfica la bondad del ajuste de los
datos a un determinado modelo probabilstico. Sin embargo, en ciertas ocasiones es
preferible contar con procedimientos cuantitativos, que permitan una decisin objetiva sobre
el ajuste. A continuacin se describen dos procedimientos cuantitativos: el test chi-cuadrado
y el test Kolmogosov-Smirnov.
Los tests de hiptesis sobre modelos de distribucin cuentan con las siguientes etapas
generales: Primero, se calcula un estadgrafo a partir de los datos observados. Luego, se
calcula la probabilidad de obtener el estadgrafo calculado, en el supuesto que el modelo sea
correcto. Esto se realiza refirindose a una tabla probabilstica que entregue los percentiles
del modelo de distribucin del estadgrafo. Finalmente, si la probabilidad de obtener el valor
del estadgrafo calculado es baja, se concluye que el modelo supuesto no provee una
adecuada representacin de la muestra. Debe hacerse notar que este procedimiento permite
rechazar un modelo por no ser adecuado, pero no permite probar que el modelo
probabilstico elegido sea el correcto.
(a) Test Chi-Cuadrado
Es el test ms usado para medir la bondad de ajuste de un modelo y es aplicable
estrictamente a cualquier tipo de distribucin siempre que los parmetros de ella, hayan sido
estimados mediante el mtodo de mxima verosimilitud. El test consiste en comparar, en
intervalos previamente definidos de la variable aleatoria, el nmero de casos observados en
ese intervalo con el terico, el cual es funcin del modelo probabilstico en estudio.
Si O1, O2,.........Ok son las frecuencias absolutas observadas y E1, E2,...... Ek son las
frecuencias tericas, en cada una de las clases, se define un estadgrafo.
(Oi Ei ) 2
=
Ei
i =1
k

La variable X2 tiende a tener una distribucin chi-cuadrado con K-S-1 grados de


libertad, siendo K el nmero de clases o intervalos definidos y S el nmero de parmetros
estimados en el modelo.
Para que el ajuste de la distribucin a la muestra sea aceptable, se requiere que el
valor chi-cuadrado sea menor o a lo sumo, igual al valor terico que toma la distribucin chicuadrado para un cierto nivel de significacin (normalmente 5%). Las tablas de la
distribucin chi-cuadrado permiten conocer el valor terico de chi en funcin de los grados
de libertad y del nivel de probabilidad deseado.

Se recomienda elegir un nmero reducido de clases de modo que el valor terico de


casos observados en cada clase sea por lo menos igual a 5 y usar clases equiprobables.
(b) Test de Kolmogorov-Smirnov
El test se basa en calcular el estadgrafo D definido como el valor mximo de la
diferencia absoluta entre la funcin distribucin acumulada emprica (Gn(a)) y la funcin
distribucin del modelo calculada para cada punto de la muestra (Fn(a)). En general, el
estadgrafo se calcula usando las distribuciones empricas de las muestras, de la siguiente
manera :
D = max {Fn (a) Gn (a) }
< a <

La dcima es rechazar la hiptesis nula si D es mayor o igual que un valor crtico


que depende del tamao de la muestra y del nivel de significancia. La Tabla 2.5 presenta
los valores lmites para esta dcima en funcin del tamao de la muestra y del nivel de
significancia..

Tabla 2.3.2.1: Valores crticos para el test de kolmogorov-smirnov

Tamao
muestra
n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
25
30
35
40
45
50
n>50

2.3.3

Nivel de significancia
0,20
0,90
0,68
0,57
0,49
0,45
0,41
0,38
0,36
0,34
0,32
0,31
0,30
0,28
0,27
0,27
0,26
0,25
0,24
0,24
0,23
0,21
0,19
0,18
0,17
0,16
0,15
1,07/n

0,15
0,93
0,73
0,60
0,53
0,47
0,44
0,41
0,38
0,36
0,34
0,33
0,31
0,30
0,29
0,28
0,27
0,27
0,26
0,25
0,25
0,22
0,20
0,19
0,18
0,17
0,16
1,14/n

0,10
0,95
0,78
0,64
0,56
0,51
0,47
0,44
0,41
0,39
0,37
0,35
0,34
0,33
0,31
0,30
0,30
0,29
0,28
0,27
0,26
0,24
0,22
0,21
0,19
0,18
0,17
1,22/n

0,05
0,98
0,84
0,71
0,62
0,56
0,52
0,49
0,46
0,43
0,41
0,39
0,38
0,36
0,35
0,34
0,33
0,32
0,31
0,30
0,29
0,26
0,24
0,23
0,21
0,20
0,19
1,36/n

0,01
0,99
0,93
0,83
0,73
0,67
0,62
0,58
0,54
0,51
0,49
0,47
0,45
0,43
0,42
0,40
0,39
0,38
0,37
0,36
0,35
0,32
0,29
0,27
0,25
0,24
0,23
1,63/n

Consideraciones adicionales

No existe ninguna justificacin terica absoluta que apoye la eleccin de un


determinado modelo probabilstico o de un determinado mtodo de estimacin de
parmetros. El hidrlogo deber en cada caso seleccionar la mejor alternativa apoyado en
argumentos de diversa ndole. En relacin con la estimacin de parmetros de los modelos,
el mtodo de mxima verosimilitud, tiene ventajas tericas que se alcanzan en forma
asinttica al aumentar el tamao de la muestra. Sin embargo, se ha demostrado en
experimentos de simulacin con muestras pequeas que otros procedimientos tienen
mejores propiedades en estos casos.

No obstante lo anterior, existen algunos elementos que ayudan a seleccionar los


modelos ms adecuados en un caso particular. Los argumentos se basan en la naturaleza de
los datos, en los resultados de tests estadsticos, en representaciones grficas de la
distribucin de frecuencia acumulada y en la comparacin de los histogramas.
Adicionalmente en ciertos casos existen situaciones especiales que hacen que
determinados modelos no sean aplicables, por producirse contradicciones entre la muestra
y los algoritmos de clculo o la esencia del modelo de distribucin. Algunos de estos casos
son, por ejemplo, no usar transformaciones o modelos de tipo logartmico cuando la
muestra tiene valores nulos. En consecuencia, en estos casos se desaconseja el uso de los
modelos log-normal, gama, gumbel, valores extremos generalizados y log-Pearson tipo III.
Si el estimador del coeficiente de asimetra es superior a 2 en valor absoluto, no se pueden
calcular los parmetros de la distribucin log-normal-3 y Pearson tipo III por el mtodo de
mxima verosimilitud.
Por otra parte, se aconseja usar:

la distribucin normal cuando las razones entre el coeficiente de asimetra y su error


estndar, y cuando la razn entre el coeficiente de kurtosis menos tres y su error
estndar son inferiores a 2 en valor absoluto, ya que en el 98% de los casos se debe
cumplir esta condicin si las variables son normales. Sin embargo, esta situacin puede
no ser muy decisiva si las muestras son pequeas
los modelos log-normal, de dos y tres parmetros cuando se cumple la condicin
anterior aplicada a los logaritmos de los valores.
distribuciones de valores extremos tipo I y/o valores extremos generalizados, cuando
se estudian valores mximos anuales o valores superiores a un umbral o un cierto
nmeros de mximos en cada ao, siempre que se trate de muestras con coeficiente de
asimetra positivo.
distribucin gama o Pearson tipo III cuando el coeficiente de asimetra es positivo.

Você também pode gostar