Você está na página 1de 17

Combinacion de m elementos tomados de a n

Permutacion de n elementos
Permutacion de n elementos, de los cuales
alguno se repite r veces, otro se repite s veces,
otro t veces
g es el cambio de variable (no es
una densidad)
f si es la densidad conjunta de x
e y (no tiene nada que ver con el
cambio de variables que hice)
Clculo combinatorio
1. Variaciones y combinaciones

Variaciones (SI me importa el orden, AB no es lo mismo que BA)

Sin repeticin I
m,n
=
m!
(m-n)!
Variacion de m elementos tomados de a n
Con repeticin I
-
m,n
= m
n


Combinaciones (no me importa el orden, AB y BA es lo mismo)

Sin repeticin C
m,n
= [
m
n
=
m!
(m-n)!n!


Con repeticin C
-
m,n
=
(m+n-1)!
(m-1)!n!


2. Permutaciones
Sin repeticin P
n
= n!

Con repeticin P
-
n(,s,t)
=
n!
!s!t!



Variables aleatorias
1. Esperanza de una variable y esperanza conjunta de dos variables

E(x) = ] x
x
(x) Jx

-
(si x es va continua)
E(x) = x

P(x

)
vx
(si x es va discreta)

E(x, y) = ] x ] y
x
(x, y)

-
Jx

-
(si x e y son va continuas)
E(x) = x
vx
y
v
P
x
(x, y) (si x e y son va discretas)

2. Esperanza de una funcin (Se usa cuando quiero calcular por ej la esperanza de una variable que es combinacion lineal de
otra)
E(g(x, y)) = ] ] g(x, y)
x
(x, y)Jx Jy

-



E(g(x)) = _ g(x)(x)Jx

-


La esperanza de una combinacion lineal, es la combinacion lineal de
las esperanzas. Por eso si todos los coeficientes son 1, la esperanza
de una suma, es la suma de las esperanzas.
La esperanza condicional se puede usar para aplicar esta propiedad
La varianza es el desvio al cuadrado (sigma
es el desvio)
Es una medida de cuanto se aleja la variable
de su valor medio
Covarianza (ver 6)


3. Esperanza condicional (lneas de regresin)

E(yx) = ] y (yx) Jy

-
va continuas
E(xy) = ] y (xy) Jx

-


E(yx) = y P(yx)
v
va discretas
E(xy) = x P(xy)
vx


4. Propiedades de la esperanza

E(ox +by) = o E(x) + b E(y)



E(y) = E(E(yx))




5. Varianza

o
x
2
= E|(x - p
x
)
2
] = E(x
2
) - (E(x))
2




Si hay independencia,

o
(ux+b+c)
2
= o
2
o
x
2
+ b
2
o

2


Si NO hay independencia,

o
(ux+b+c)
2
= o
2
o
x
2
+ b
2
o

2
+ 2 o b Co:
x



6. Covarianza

Co:
x
(x, y) = E [(x - p
x
)(y - p

)

Co:
x
(x, y) = E(x, y) -E(x)E(y)

Si hay independencia,


Si x e y son ind, pasa esto. Pero que la covarianza
sea cero, NO garantiza independencia. Es decir, la
recproca no vale.
(va entre -1 y 1)
Es el valor de x que acumula la mitad de la
probabilidad
Siempre tiene que cerrar a uno por ser funcin de
densidad
separo la va que me interesa de la conjunta
La va y el diferencial deben ser distintos
Co:
x
= u




7. Otras definiciones

Coeficiente de correlacin:
p(x, y) =
Co:
x
(x, y)
o
x
o



Mediana:

HcJ
x
= {xF(X = x) = 12]


Moda:

HoJ
x
= {xF(X = x) es mximo]

8. Espacios bivariantes

Dadas las distribuciones de dos VA, x e y,
Si son independientes:

x
(x, y) = (x)(y)

Si no lo son,

x
(x, y) = (x)(yx)



a. Marginales

P( = y) = (X = x) r ( = y)
vx


P(X = x) = (X = x) r ( = y)
v


( = y) = ]
x
(x, y)

-
Jx

(Y = y) = ]
x
(x, y)

-
Jx







Esta es la va
una sola variable quiere
decir que la variable de la cual
tenemos que hallar la densidad
(seguramente), es una
transformacion lineal de otra,
o sea, si Y es la variable
incognita, entonces Y=f(X)
y
x
y
f(y)
f(x)
x
Aca va la grafica del cambio
de variables
Aca va la grafica de f(x)
Aca va la grafica de la f
incognita
Una vez que tengo F, derivo y f sale
b. Condicionales

P(X = x = y) =
P(X = x) r P( = y)
P(X = x)


P(Y = yX = x) =
P(X = x) r P( = y)
P( = y)


(X = x = y) =

x
(x, y)

(y)


( = yX = x) =

x
(x, y)

x
(x)

9. Cambio de variables

Para una sola variable:

Hay dos formas, una es partiendo de F, y la otra partiendo directamente de f.

Si parto de F, se realiza un grfico:

















Y pueden suceder tres cosas:

Si y=f(x) es montona creciente, entonces F( = y) F(X = x)

Si y=f(x) es montona decreciente, entonces F( = y) 1 -F(X = x)

Si y=f(x) es creciente y decreciente por tramos, se analiza por tramos.
El otro mtodo, a partir directamente de f (densidad), requiere primero fijarme en cuntos puntos corto a la grfica del
cambio de variables si me paro en un valor cualquiera de y, qu densidad de x le correspondera, por eso necesito el grfico
tambin.
Se usa la frmula:
n es la cantidad de veces que corto al cambio de
variables para un y determinado
Ojo, hay que usar, para el y en donde estoy parado, la densidad de x que corresponde y la funcin de cambio
de variable que corresponde (a veces el cambio de variables es una funcin partida)
dos variables quiere decir que la
variable de la cual tenemos que hallar
informacin, es una combinacion
lineal de otras dos, por ejemplo,
w=x+y , o w=xy
y
x
Este es el recinto que me interesa y
sobre el cual integro f(x,y)
Una vez que encuentro f(u,v), como v esta definido
justamente como el cambio de variable que busco,
entonces si hallo f(v) como marginal de f(u,v), obtengo
la densidad que estoy buscando
Y=f(x)para algun W


(y) =

x
(x

)
_
oy
ox
_
n
=1





Para dos variables:

Nuevamente, hay dos formas, una obteniendo directamente F de la funcin
incgnita, y la otra, nos da directamente f a travs del clculo de una marginal.

Grficamente e integrando (o sea obteniendo F):

Se pone el cambio de variables en funcin de una de las variables de las cuales conocemos la densidad
(por ejemplo, si W=X+Y, trabajo con Y=W-X), y se grafica el recinto formado por los lmites de X e Y (si X e Y son las
variables que forman W). A veces es un rectngulo y a veces no, si por ejemplo y se mueve entre 0 y 1, pero x se mueve entre
0 e y, da una regin triangular.
Luego se grafican distintas curvas para distintos valores de W, y se calcula el volumen que queda debajo de esas curvas
genricas, usando integrales dobles.











Si en cambio quiero trabajar a partir de f, planteo un cambio de variables donde:

u=x
v= cambio de variables original

Hallo el jacobiano y aplico la frmula.

Jacobiano = |[| = _
u
x
u

_ =
u
x

-
u

u
(u, :) =

x
(x, y)
|[|



F(X=x) es la distribucin de cada una de las variables
xi
Si es minimo Si es maximo
fijo
Incognita (cant xitos)
Conocido y fijo (prob del xito)
La variable bernoulli es una variable
dicotmica que solo puede tomar valor cero
o uno. La binomial es una suma de
bernoullis
10. Distribucin de extremos

Sirve para analizar qu probabilidades hay de que el mximo o el mnimo entre dos (o ms) valores sea mayor, igual o menor a
algo. Es un cambio particular de variables donde W en lugar de ser una suma, una resta, un producto, etc, es la funcin mx o
mn.

Si tengo ms de dos valores, los tengo que ir comparando de a pares, SALVO que se de el siguiente caso:
Sean n variables xi, las cuales son todas independientes entre s y adems, estn idnticamente distribudas.
Entonces:

si w = mx(x1, x2, , xn) - F(w = w) = |F(X = x)]
n






si w = min(x1, x2, , xn) - F(w = w) = 1 - |1 - F(X = x)]
n


En el caso de que las distribuciones no fueran iguales, se trabaja como si fuera un cambio de variables, integrando, (ver punto
anterior), slo que las curvas de nivel son como se indica a continuacin:











Variables aleatorias particulares

1. Proceso Bernoulli
a. V.A Binomial
Cuenta la cantidad de xitos en n experimentos.
Parmetros: n r p


P
p,n
(r) = (
n
r
)p
r
(1 - p)
n-r
para n r u


y
x
x = y
y
x
x = y
incognita
Fijo en uno
No le importa lo que paso antes de
empezar a contar
La suma de k variables
geomtricas con p=pg,
genera una pascal con p=pg
y r=k
incognita
Fijo en algn valor
Conocido y fijo (prob del xito)
p = n p
o
2
= n p (1 -p)
b. V.A Geomtrica

Cuenta los intentos necesarios hasta obtener el primer xito.
Parmetros: n i=1 p

P
p
(n) = p(1 - p)
n-1
para n 1
La geomtrica tiene falta de memoria

P(x > (t + b)x > b) = P(x > t)
p =
1
p

o
2
=
1 - p
p
2

c. V.A Pascal

Cuenta los intentos necesarios hasta el r-simo xito. Es una geomtrica pero con r distinto de 1.



Parmetros: n i=a p


P
,p
(n) = (
n-1
-1
)p

(1 - p)
n-
para n r
p =
r
p

o
2
= r
1 - p
p
2

2. Proceso Poisson
a. V.A Poisson

Anloga a la binomial, cuenta los xitos encontrados a lo largo de un continuo t. Es la nica va del proceso poisson que
es discreta.




fijo
Incognita (cant xitos)
La suma de n variables poisson con un
mismo z da otra poisson con z
i
= z y el
mismo t
Conocido y fijo (tasa de ocurrencia del exito)
Si conozco la media, no me hace falta ni z ni t
Conocido y fijo (tasa de ocurrencia del xito)
incognita
Cant xitos (fijo en uno)
La suma de r variables exponenciales con el
mismo z, da una gamma con ese z y k=r

Parmetros: t k z


P
x,t
(k) =
(xt)
k
c
-Zt
k!
para k u
p = o
2
= zt

Propiedad especial: adelgazamiento.
Es una especie de truncamiento pero aplica slo para esta VA. Se trata de obtener un z
-
marginal a partir del z
original, multiplicando a ste ltimo por una probabilidad. Por ejemplo:

z = autos que lleganmin
P = piobabiliuau ue que llegue un auto ru|u
z
-
= P z = autos ru|us que lleganmin

b. V.A Exponencial

Esta es anloga a la geomtrica pero en el continuo. Cuenta el tiempo (o longitud, o simplemente, continuo)
necesario hasta el primer xito. Es continua.



Parmetros: t k

x
(t) = z c
-xt
para t u
F
x
(t) = 1 - c
-xt


Tiene falta de memoria como la geomtrica!

(x > (t + b)x > b) = (x > t)
p =
1
z

o
2
=
1
z
2






Conocido y fijo (tasa de ocurrencia del xito)
incgnita
Cant xitos (fijo en algn valor)
es la funcin gamma
Cantidad de elementos existentes
Cantidad de elementos
asociados al exito Cantidad de exp realizados
Cantidad de xitos (incognita)
c. V.A Gamma

Finalmente, anloga a la Pascal, la gamma cuenta el continuo t necesario hasta obtener k xitos. Es una suma de
exponenciales.

Parmetros: t k z


x,k
(t) =
x
k
(k-1)!
t
(k-1)
c
(-xt)
para t u
F
x,k
(t) =
x
k
t
k
(xt)
-k
(I(k)-I(k,xt))
(k-1)!


(k) = _ t
k-1
c
-t
Jt

0
= (k -1)!
p =
k
z

o
2
=
k
z
2





3. Proceso Hipergeomtrico

Parmetros: N R n i





P
N,R,n
(r) =
(
R
r
)(
N-R
n-r
)
(
N
n
)
para mx(u, (n + R - n)) r min(n, R)
p =
n N
2N -R

4. Proceso Multinomial

Cuando el experimento no es dicotmico, y en lugar de dos hay muchos (n) sucesos posibles, se usa este proceso. Da
la probabilidad de que cada uno de los sucesos ocurra una cierta cantidad de veces.

p1,p2,,pn
(x1, x2, , xn) =
n!
x1! x2! xn!
p1
x1
p2
x2
pn
xn


xi = cantiuau ue veces que ocuiie el suceso "i"
pi = piobabiliuau ue que ocuiia el suceso "i"
La suma de xi tiene que dar el total.
media
desvio
1 2 3 -3 -2 -1
68%
45%
99%
Si x son uniformes, con n=3 alcanza.. si no n ti
ene que ser del orden de 30

xi = n
pi = 1
5. V.A Normal

Es la ms utilizada en aplicaciones prcticas.

,c
(x) =
1
2n o
c
_-
1
2
[
x-
c

2
]




Para trabajar con la F, conviene estandarizar y usar la tabla. La estndar tiene p = u y o = 1. Si se quiere saber,
la probabilidad de que x sea menor o igual (o mayor) que algn valor, busco el equivalente a ese valor (z) usando la
frmula. Y luego busco en tabla el z correspondiente y la probabilidad que busco.

z =
x -p
o

Suma de n normales:
Si todas tienen el mismo p y el mismo o, se genera una normal N* nueva con:
N
-
~(p
-
= n p; o
-
= n o
2
)

Si son todas distintas, cada una con su p

y su o

, se genera una normal N* nueva con:


N
-
~(p
-
= p

; o
-
= o

2
)












Teorema central del lmite
Dada una VA x con p
x
y o
x
,
Si w = x

n
=1
y n es lo suficientemente grande, entonces:
w~N(p
w
= n p
x
; o
w
= n o
x
)
o2
o2
Estadistica
Parmetros (Poblacion) (Son los exactos)
Estimadores (Muestra)
p (Media) x (Media muestral)
p (Proporcion) p (Proporcion muestral)
o
2
(Varianza) S
2
(Varianza muestral)

Media muestral x =
x
Bi
n
i=1
n

Esperanza de x E(x ) = p
Varianza de x I(x ) =
v(x)
n
o + n, - Jcs:io, + ccrtiJumbrc
Proporcion muestral p =
x
i
n
i=1
n

Esperanza de p E(p ) = p
Varianza de p I(p ) = _
p(1-p)
n
o + n, - Jcs:io, + ccrtiJumbrc
Proporcion muestral S
2
=
(x
i
-)
2 n
i=1
n
si p cs Joto
S
2
=
(x
i
-x )
2 n
i=1
n
si p no cs Joto
Intervalos de confianza
P(Z
(u2)
< Z < Z
(1-u2)
) = 1 -o




El intervalo de confianza quiere decir que hay una probabilidad de 1 -o de que el valor se encuentre entre los limites inferior y
superior indicados.
Z
(u)
FRACTIL: valor de la variable que acumula el porcentaje aque dice entre ( ). Por ejemplo Z
(0,5)
acumula a su izquierda un
50% de probabilidad.
a. Intervalo de confianza para p si conozco o:
Se usa la tabla de variable aleatoria NORMAL.
P(x -Z
[1-
o
2

o
n
< p < x +Z
[1-
o
2

o
n
) = 1 - o
1 -o
Amplitud del intervalo Is -Ii = 2 Z
[1-
o
2

c
n

Tamao de la muestra n = _
2 z
[1-
o
2

c
AmpItud
_
2

b. Intervalo de confianza para p si NO conozco o:
Se usa la tabla de variable aleatoria t de STUDENT.
P(x - t
[n-1 ; 1-
o
2

S
n
< p < x +t
[n-1 ; 1-
o
2

S
n
) = 1 - o
c. Intervalo de confianza para p

Si n es lo suficientemente grande (del orden de 30) Y p est lejos de 0 o de 1, se usa la variable aleatoria NORMAL.

P(p - Z
[1-
o
2

_
p(1 -p)
n
< p < p +Z
[1-
o
2

_
p(1 -p)
n
) = 1 - o

d. Intervalo de confianza parapara o si conozco p

Se usa la tabla de variable aleatoria CHI CUADRADO.

P(
n. S
2
_
2
(n ;1- u2)
< o
2
<
n. S
2
_
2
(n ;u2)
) = 1 -o
e. Intervalo de confianza para o si no conozco p

Se usa la tabla de variable aleatoria CHI CUADRADO.

P(
(n -1). S
2
_
2
(n-1;1- u2)
< o
2
<
(n - 1). S
2
_
2
(n-1 ;u2)
) = 1 -o
f. Intervalo de confianza para la diferencia de medias

Diferencia de medias = x
1
-x
2
= J
m


Esperanza de J
m

E(J
m

) = p
1
-p
2

Varianza de J
m

I(J
m

) =
v(x
1
)
n
+
v(x
2
)
n

Se usa la tabla de variable aleatoria NORMAL.
P((x
1
- x
2
) -Z
[1-
o
2

- _
o
1
2
n
1
+
o
2
2
n
2
< p
1
- p
2
< (x
1
-x
2
) +Z
[1-
o
2

- _
o
1
2
n
1
+
o
2
2
n
2
) = 1 -o
Si el limite inferior es negativo, y el superior positivo, quiere decir que el 0 cae dentro del intervalo, con lo cual, es posible que la
diferencia sea 0, es decir que las medias sean iguales. Si ambos dan positivos, quiere decir que es imposible que sean iguales.
g. Intervalo de confianza para la diferencia de proporciones

Diferencia de medias = p
1
-p
2
= J
p


Esperanza deJ
p

E(J
p

) = p
1
-p
2

Varianza de J
p

I(J
p

) =
p
1
(1-p
1
)
n
1
+
p
2
(1-p
2
)
n
2

Si n1 y n2 son lo suficientemente grande (del orden de 30), y _
n

p
1
> 1u
n

(1 -p
1
) > 1u
se usa la variable aleatoria NORMAL.
P((p
1
-p
1
) -Z
[1-
o
2

_
p
1
(1 -p
1
)
n
1
+
p
2
(1 -p
2
)
n
2
< p
1
-p
2
< (p
1
-p
1
) +Z
[1-
o
2

_
p
1
(1 -p
1
)
n
1
+
p
2
(1 -p
2
)
n
2
) = 1 -o
Estimadores sesgados
Sesgo de un estimador=S
S(0
`
) = E(0
`
) -0
`

Si S=0, el estimador es insesgado
Si S=0, el estimador es sesgado
Metodo de maxima verosimilitud (MMV)
Se le van dando distintos valores al parmetro en cuestion (0
`
). El espacio de los valores que ese parmetro PUEDE tomar se
llama espacio paramtrico .

Se genera la Funcion de Verosimilitud L() y se adopta como valor de 0
`
el valor que maximiza dicha funcion.

I(0) =
Si cs I. A. - P(x
1
r r x
n
0 ) = P(x

0 )
n
=1
Si cs I. A. C - (x
1
r r x
n
0 ) = (x

0 )
n
=1


a. Estimacion de p por MMV

I(0) = p

(1 -p)
n-


Derivo e igualo a 0 para maximizar y obtengo

p =
r
n


Siendo n la cantidad de muestras y r la cantidad de xitos obtenidos.

b. Estimacion de z en Poisson por MMV

I(0) = I(z) = zc
-xt
1
- zc
-xt
2
- - zc
-xt
n
= z
n
c
-x t
i


Aplicarle logaritmo a la exponencial le mantiene el mx. Se hace esto para que derivar sea ms fcil.

z
`
=
n
t

=
1
t


Siendo t

la media de los tiempos.



c. Estimacion por MMV de p y o para una V.A Normal.

p =
x

n
= x
El desvio, por MMV, da esto:

o
2
= S
2
=
(x

-x )
2
n

Pero es un estimador sesgado.
Lo ms correcto es adoptar:
o
2
= S
2
=
(x

-x )
2
n -1





d. Estimacion por MMV del parmetro b de una Uniforme entre 0 y b.

b
`
= mx __
1
b
]
n
_
Inferencia Bayesiana
El parmetro (0) se considera como una variable aleatoria. Se trabaja con una funcin de distribucin a priori, que generalmente es
dato. Si no lo es, por principio de indiferencia se considera que es uniforme en el espacio parametrico.

[
0
x1, x2, , xn
, =
(
xi
0
, )
n
=1
(0)
]
(
xi
0
, )(0)
n
=1
J0
= I(0)

a. Inferencia bayesiana para p

La funcin bayesiana es un cambio de escala de la
funcin de verosimilitud
Son funciones beta, si son muy complejas se resuelven con Excel, mediante dist.betainversa (probabilidad,r+1,n-r+1), eso
me da el limite inferior.

(
p
r, n
, ) = _
(n +1)! p

(1 -p)
n-
r! (n -r)!
si u < p < 1
u v otro p


E(p) =
r +1
n +2


I(p) =
(r +1)(n +1 -r)
(n +2)
2
(n +S)


b. Inferencia bayesiana para z en poisson

[
z
k
, = _
t
k+1
z
k
c
-xt
k!
si z > u
u v otro z


E(z) =
k +1
t


I(z) =
k +1
t
2


c. Inferencia bayesiana para R y para N en proceso hipergeometrico

P [
R
N, n, r
, = _
(
R

)(
N-R
n-
)
(
N+1
n+1
)
r R N -(n -r)
u v otro R


P [
N
R, n, r
, = _
(
R

)(
N-R
n-
) r (r -1)
(
N
n
) R n
N R +n -r
u v otro N




Test de hiptesis
Interesa averiguar si el parmetro en cuestin cumple o no una determinada hiptesis. No importa el valor real del parmetro.
Lo que quiero probar es la hiptesis nula (H0). Y H1 es la hiptesis alternativa.
Por ejemplo: H0: p = 18u o H0: p > 18u
Tambien se necesita plantear un nivel de significancia= o (Valores tpicos: 0,10 0,05 0,01 0,005 0,002)
Solo funciona si r es mayor o igual a 2
Zona de aceptacion
Zona de rechazo
Zona de aceptacion
Zona de rechazo
El objetivo es calcular un valor critico (o dos), para la variable que defina(n) una zona de aceptacin y una zona de rechazo de la
hiptesis.
Se presupone primero que la distribucin de la variable (parmetro que quiero estimar) es normal (si el valor del desvio es dato), o t-
student, o chi cuadrado), y entonces, en funcin de la H0, se definen las zonas antes mencionadas.
Si la H0 es una igualdad (0 = o), la zona de aceptacin estar definida por dos valores crticos (dos colas)
0
c
= 0
`
_lo quc ocumulo (:cr groico)
Si la H0 es una desigualdad menor o igual (0 o), un solo valor critico y cola izquierda
0
c
= 0
`
-lo quc ocumulo (:cr groico)
Si la H0 es una desigualdad mayor o igual (0 o), un solo valor critico y cola derecha
0
c
= 0
`
+lo quc ocumulo (:cr groico)





SI uso la normal, esta tabla indica, segn el nivel de significancia, los valores crticos:
Nivel de significancia o
0,10 0,05 0,01 0,005 0,002
Valor critico de z
para una cola
-1,28 o
+1,28
-1,645 o
+1,645
-2,33 o
+2,33
-2,58 o
+2,58
-2,88 o
+2,88
Valor critico de z
para dos colas
-1,645 y
+1,645
-1,96 y
+1,96
-2,58 y
+2,58
-2,81 y
+2,81
-3,08 y
+3,08

Errores:
Error de tipo I (EI): Su probabilidad de aparecer es IGUAL al nivel de significancia. Justamente el alfa es la mxima probabilidad
que quiero tener de rechazar H0 en el caso de que H0 fuera cierta.
P(EI) = P[
Rccbozor Eu
Eu cs cicrto
, = o
Error de tipo II (EII): Su probabilidad de aparecer es IGUAL a un coeficiente [. Es la mxima probabilidad que quiero tener
de aceptar H0 en el caso de que H0 fuera falsa (o sea la hiptesis alternativa es la cierta).
P(EI) = P _
Accptor Eu
E1 cs cicrto
, _ = [
Potencia del test: P = 1 -[

0 = o
x
c2

x
c1

0 = o
x
c
x
c
0 = o
Test de bondad de ajuste
Sirve para verificar si algo corresponde con la distribucin de probabilidad propuesta
1. Hipotesis nula: propongo una distribucin para fx(x)
2. Parto el dominio de fx(x) en k intervalos
3. Encuentro cuantos de los datos observados 0

= n

caen en cada intervalo



n

= N
k
=1

N= cantidad total de datos

4. Encuentro los valores esperados c

= N p

de cada intervalo.
p

= _
x
(x)Jx
Pi= probabilidad de que un valor caiga en el intervalo i
c

S vi
5. Obtener el estadgrafo D2

2
=
(0

-c

)
2
c

=
(n

-N p

)
2
N p

k
=1
= _
k--1
2
k
=1


Variable chi cuadrado con k-r-1 grados de libertad, siendo:
K=cantidad de intervalos
r=cantidad de parmetros estimados (o sea valores que no conozco y estime)

Você também pode gostar