Você está na página 1de 10

1

1) Considere el diseño del ejemplo 1,5,1 (The Hink Survey) una muestra S de n individuos es extraída
mediante M AS de una marco que lista N individuos. Las familias correspondientes a los individuos
seleccionados son identicados. Calcular la probabilidad de inclusión de una familia compuesta de
M individuos, donde M < n. Obtener expresiones aproximadas para la probabilidad de inclusión
deM = 1, 2, 3 suponga que N, n son grandes con Nn = F > 0.

Solución:

Tenemos que:

N −M

X n−M
πk = p(s) = N
 , k = 1, 2, · · · , N
k∈s m
(N −M )!
(N −M −n+M )!(n−M )!
= N!
n!(N −n)!
(N −M )!
(N −n)!(n−M )!
= N!
n!(N −n)!

n!(N − M )!(N − n)!


=
N !(N − n)!(n − M )!
n!(N − M )!
=
N !(n − M )!
n!M !(N − M )!
=
N !M !(n − M )!
n
(M )
= N
(M )

Ahora tenemos que:

h  i
Cov(yc
U , yU 1 ) = E
c yc
U − E( y
cU ) y
c U1 − E( ycU1 )
h  i
= E yc U − yU U 1 − yU 1
yc
h i
= U yU 1 − yU yU 1 − yU yU 1 + yU yU 1
E yc c c c
h i h i h i
= E yc y
U U1
c − y U1 E y
c U − yU E yc
U 1 + yU yU 1
h i
= U yU 1 − yU 1 yU − yU yU 1 + yU yU 1
E yc c
h i
= U U 1 − yU 1 yU
E yc yc
2

Luego;
n!
( n1 ) (n−1)! n n
π1 = = N! = , asi π1 =
( N1 ) (N −1)!
N N

n! n(n−1)(n−2)!
( n2 ) (n−2)!(2)! 2!(n−2)! n(n−1) n(n−1)
π2 = = N! = N (N −1)(N −2)! = , asi π2 =
( N2 ) (N −2)!(2)! 2!(N −2)!
N (N −1) N (N −1)

n! n(n−1)(n−2)(n−3)!
( n3 ) (n−3)!(3)! 3!(n−3)! n(n−1)(n−2)
π3 = = N! = N (N −1)(N −2)(N −3)! =
( N3 ) (N −3)!(3)! 3!(N −3)!
N (N −1)(N −2)

2) Considere una población por 3 subpoblaciones a disyuntas U1 , U2 ,y U3 de tamaños N1 = 600,


N2 = 300 y N3 = 100, respectivamente. Así U es de tamaño N = 1000 para cada elemento kU ,
la inclusión o no inclusión en la muestra S , es determinado por un experimento Bernoulli que da al
elemento k la probabilidad πk de ser seleccionado. Los experimentos son independientes
(a) Sea πk = 0,1 para todo k ∈ U1 , πk = 0,2 para todo k ∈ U2 y πk = 0,8 para todo k ∈ U3 . Halle el
valor esperado y la varianza del tamaño ns , bajo este diseño.
(b) Suponga que πk es constante para todo kU . Determine esta constante de modo que el valor esper-
ado del tamaño de muestra coincida con el tamaño de muestra obtenido en (a), obtenga la varianza
del tamaño de muestra; comparelo con la del caso (a).

Solución:

(a)
N = 1000
N1 = 600, N2 = 300 y N3 = 100 (
1 k∈S
π1 = 0,1, π2 = 0,2 y π3 = 0,8 Como ns = Ik , con Ik = Entonces E(ns ) =
P P
E(Ik ) =
k∈U 0 k ∈
/ S k∈U

π = N π , con π = N ,
ns
donde ns esel tamaño de la muestra. Notese:
P P
πk =
k∈U k∈U

E(ns1 ) = N1 π1 = 600(0,1) = 60
E(ns2 ) = N2 π2 = 300(0,2) = 60
E(ns3 ) = N3 π3 = 100(0,8) = 80

Así
E(ns ) = E(n1 ) + E(n2 ) + E(n3 ) = 60 + 60 + 80 = 200 Notese también que:

V ar(ns1 ) = N1 π1 (1 − π1 ) = (600)(0,1)(0,9) = 54
V ar(ns2 ) = N2 π2 (1 − π2 ) = (300)(0,2)(0,8) = 48
V ar(ns3 ) = N3 π3 (1 − π3 ) = (100)(0,8)(0,2) = 16
Así
V ar(ns ) = V ar(ns1 ) + V ar(ns2 ) + V ar(ns3 ) = 54 + 48 + 16 = 118
3

(b) Como πk = π para todo k ∈ U bajo diseño Bernoulli


Sea ns jo,
entonces, E(ns ) = N π⇒ 200 = 1000π⇒π = 200
1000 = 0,2 Ahora bajo el mismo diseño Bernoulli
V ar(ns ) = N π(1 − π), con N = 1000,π = 0,2 se tiene que:

V ar(ns ) = V ar(ns1 )+V ar(ns2 )+V ar(ns3 ) = 600(0,2)(1−0,2)+300(0,2)(1−0,2)+100(0,2)(1−


0,2) = 96 + 48 + 16 V ar(ns ) = 160 Luego se puede decir que si se compara ns cuando es aleatorio y ns

cuanto es jo cuando es jo es mayor que cuando es aleatorio, según calculos anteriores.

3) Una población de 1600 individuos esta divididad en 800 conglomerados (Hogares) tales que hay Na
conglomerados de tamaño a (a = 1, 2, 3, 4)de acuerdo con la siguiente tabla:

a 1 2 3 4
Na 250 350 150 50

Una muetsra de individuos es seleccionada como sigue: 300 conglomerados son seleccionados de los 800
bajo un diseño de muestreo M AS , y todos los individuos en el conglomerado seleccionado son entre-
vistados. Si ns denota el número total de individuos entrevistados. Calcule E(ns )y V ar(ns ). Solución:

N = 1600 individuos
nI = 300 de NI = 800 conglomerados, entonces
nI
πI = N I
= 300
800 = 0,375

Ahora denamos yk el (número de individuos en el conglomerado seleccionado.


1 i ∈ SI
Ii , con Ii = luego
P
ns =
i∈UI 0 i∈/ SI
 
P P P nI
E(ns ) = E( Ii ) = E(Ii ) = πI = NI πI = NI N I
= nI
i∈UI i∈UI i∈UI

Entonces, como E(ns ) = nI = 300, corresponde al número de conglomerados seleccionados de NI = 800


conglomerados, por tanto E(ns ) = 300, luego;

X XX X XX
V ar(ns ) = V ar( Ii ) = ijCov(Ii , Ij ) = i2 V ar(Ii ) + ijCov(Ii , Ij )
i∈UI i∈UI j∈UI i∈UI i∈UI j∈UI
i6=j
X XX
2
= i πI (1 − πI ) + ij(πIJ − πI πJ )
i∈UI i∈UI j∈UI
i6=j
X XX
2
= πI (1 − πI ) i + (πIJ − πI πJ ) ij
i∈UI i∈UI j∈UI
i6=j

n2I X X
   
nI nI NI (NI + 1)(2NI + 1) nI (nI+1 )
= (1 − ) + − ij
NI NI 6 NI (NI + 1) NI2
i∈UI j∈UI
i6=j

Notese que: ( )
NI2 (NI +1)2 NI (NI +1)(2NI +1)
j − i2 NI (NI +1)
i2 = -
P P P P P P
ij = i = 2 i− 4 6
i∈UI j∈UI i∈UI j∈UI i∈UI i∈UI
i6=j
4

!
NI2 n2I + nI NI2 − n2I NI2 − n2I NI
„ «» – „ «ff
nI nI NI (NI + 1)(2NI + 1) NI (NI + 1) (2NI + 1)
V ar(ns ) = 1− + 3
NI (NI + 1) −
NI NI 6 NI (NI + 1) 4 6
!( !)
nI NI2 − n2I NI 6NI2 + 6NI − 8NI − 4
„ «» –
nI nI NI (NI + 1)(2NI + 1)
= 1− + NI (NI + 1)
NI NI 6 NI3 (NI + 1) 24
!
2
nI (NI − nI ) 6NI − 2NI − 4
„ «» – „ «
nI nI NI (NI + 1)(2NI + 1)
= 1− +
NI NI 6 NI 24
!
2
6(800) − 1597
„ «» – „ «
300 300 800(801)(1601) 300(500)
= 1− +
800 800 6 800 24
= 40075031 + 29987523
= 70062555

4) Considere una población de tamaño N = 3, U = {1, 2, 3}. Sea S1 = {1, 2}, S2 = {1, 3},S3 = {2, 3},
S4 = {1, 2, 3}, P (S1 ) = 0,4, P (S2 ) = 0.3, P (S3 ) = 0.2 y P (S4 ) = 0.1

(a) Calcule todas las probabilidades de inclusión de primero y segundo orden

(b) Halle el valor de E(ns )de dos formas; (1) por el calculo directo usando usando la denición (2)
por el uso d ela formula que expresa E(ns )como una función de los πk

Solución:
(a)
Las Probabilidades de inclusión de Primer orden son:

π1 = P (1 ∈ S) = P (S1 ) + P (S2 ) + P (S4 ) = 0,4 + 0,3 + 0,1 = 0,8

π2 = P (2 ∈ S) = P (S1 ) + P (S3 ) + P (S4 ) = 0,4 + 0,2 + 0,1 = 0,7

π3 = P (3 ∈ S) = P (S2 ) + P (S3 ) + P (S4 ) = 0.3 + 0.2 + 0.1 = 0.6

Ahora, las probabilidades de inclusión de segundo orden, son:

π12 = P (1 y 2 ∈ S) = P (S1 ) + P (S4 ) = 0,4 + 0,1 = 0,5

π13 = P (1 y 3 ∈ S) = P (S2 ) + P (S4 ) = 0,3 + 0,1 = 0,4

π23 = P (2 y 3 ∈ S) = P (S3 ) + P (S4 ) = 0,2 + 0,1 = 0,3

π21 = π12 = 0,5

π31 = π13 = 0,4

π32 = π23 = 0,3

(b)(1) Usando la denición de E(ns ) se tiene:


4
P
E(ns ) = nsi P (si ) = 2(0,4) + 2(0,3) + 2(0,2) + 3(0,1) = 2,1
i=1

(b)(2)E(ns ) = E(I1 ) + E(I2 ) + E(I3 ) = π1 + π2 + π3 = 0,8 + 0,7 + 0,6 = 2,1


5

5) Considere la poblacion y el diseño en el ejercicio 4, sean y1 = 16,y2 = 21, y y3 = 18 los valores de


la variable de estudio y. Entonces tenemos que t = 55.
(a) Calcule el valor esperado y la varianza del π − estimador de la denición en la sección 2,7
(b) Calcule la varianza del π − estimador usando el resultado 2.8.1
(c) Calcule el coeciente de Varianza del π − estimador
(d) Calcule la varianza estimada V ˆar(tˆπ )usando el estimador de la varianza (2.8.6) para cada una de
las posibles muestras determine el valor esperado del estimador de la varianza en la presente situación
usando la denición del valor esperado en la sección 2.7.

Solución:

(a) y1 = 16, y2 = 21 y y3 = 18
Por denición tenemos que:
h i 2 P h i2
V ar(θ̂) = E θ̂ − E(θ̂) = P (s) θ̂ − E(θ̂)
s∈S
Con S el conjunto de todas las muestras.
Para t = yk , un estimador para el total poblacional t esta dado por:
P
k∈U

πk En este caso, S = {S1 , S2 , S3 , S4 }


P yk
t̂π =
k∈S
yk
, i ∈ {1, 2, 3}
P
t̂π = πk
k∈Si

4 X
X yk X yk X yk X yk X yk
t̂π = = + + +
i=1
πk πk πk πk πk
k∈Si k∈S1 k∈S2 k∈S3 k∈S4
y1 y2 y1 y3 y2 y3 y1 y2 y3
= + + + + + + + +
0,8 0,7 0,8 0,6 0,7 0,6 0,8 0,7 0,6
16 21 16 18 21 18 16 21 18
= + + + + + + + +
0,8 0,7 0,8 0,6 0,7 0,6 0,8 0,7 0,6
t̂π = 240

P
E(t̂π ) = P (Si )t̂π (Si ) = 0,4(50) + 0,3(50) + 0,2(60) + 0,1(80) = 20 + 15 + 12 + 8 = 55
k∈Si
 2
P (Si ) t̂π (Si ) − E(t̂π ) = 0,4(50−55)2 +0,3(50−55)2 +0,2(60−55)2 +0,1(80−55)2 = 85
P
V ar(t̂π ) =
k∈Si

(b) Por denición tenemos que


∆kl πykk πyll ; ∆kl = πkl − πk πl
P P
V ar(t̂π ) =
k∈U l∈U
Note que:
 2
X yk yk yl
XX
V ar(t̂π ) = ∆kk + ∆kl
πk πk πl
k∈U k∈U l∈U
  2 X (X  2 )
X
2
 yk yk yl yk
= πkk − πk + ∆kl − ∆kk
πk πk πl πk
k∈U k∈U l∈U
(  2 )
  2
X yk X yk X yl yk
= πk (1 − πk ) + ∆kl − πk (1 − πk )
πk πk πl πk
k∈U k∈U l∈U
 2  2  2
yk yk yk y1 y2 y1 y3 y2 y3
= π1 (1 − π1 ) + π2 (1 − π2 ) + π3 (1 − π3 ) + ∆12 + ∆13 + ∆23
π2 π2 π3 π1 π2 π1 π3 π2 π3
       
0,2 2 0,3 2 0,4 2 16 21 16 18 21 18
= 16 + 21 + 18 − 0,06 − 0,08 − 0,12
0,8 0,7 0,6 0,8 0,7 0,8 0,6 0,7 0,6
6

∆12 = π12 − π1 π2 = 0,5 − (0,8)(0,7) = −0,06


∆13 = π13 − π1 π3 = 0,4 − (0,8)(0,6) = −0,08
∆23 = π23 − π2 π3 = 0,3 − (0,7)(0,6) = −0,12

Asi se sigue que:


V ar(t̂π ) = 64 + 189 + 216 − 36 − 48 − 108 = 277

(c) Calcule√el coeciente de Varianza del π − estimador es:



CV =
V ar(t̂π )
t̂π
= 55
277
× 100 % = 30,26 %

(d) V ˆar(t̂π ) = ∆kl πykk πyll


P P

 k∈U  l∈U 2    2    2        
ˆ 0,16 16
+ 0,21 21
+ 0,24 18
− 0,06 16 21 0,08 16 18
V ar(t̂π ) = 0,5 0,8 0,7 0,4 0,6 0,6 0,5 0,8 0,7 − 0,4 0,8 0,6 −
   
0,12 21 18
0,2 0,7 0,6
V ˆar(t̂π ) = 582.875

6) Sea S una muestra estraída mediante un diseño Bernoulli con πk = π para todo k ∈ U . Sea
ns el tamaño aleatorio de S . Muestre que la probabilidad condicional de obtener S dado ns es igual a
la probabilidad d euna muestra bajo un diseño M AS con tamaño ns jo de N .

Solución:
P (S∩ns ) π ns (1−π)N −ns 1
P (S | ns ) = = =
P (ns ) ( nNs )πns (1−π)N −ns ( nNs )
Lo cual es igual a la probabilidad bajo el diseño M AS con ns jo.

7) Sea S (S ⊂ U ) una muestra Extraida bajo un diseño M AS , y sea S1 (S1 ⊂ P U − S ) una mues-
tra extraída bajo un diseño M AS del resto de porción de la población sea y U = ynk y y U1 = nyk1
P
S S1
donde n y n1 son los respectivos tamaños (jos) de S y S1 . Halle la covarianza entre y U y y U1 .

Solución

X yk 1X 1X 1X
E(yˆ
¯U ) = E( ) = E( yk Ik ) = yk E(Ik ) = yk πk
n n n n
S U U U
n X
(N )
= yk = ȳ
n
U
E(yˆ
¯U ) = ȳ

1X 1 X 1 X
E(yˆ
¯U1 ) = E( yk ) = E( yk Ik ) = yk E(Ik )
n1 n1 n1
S1 U −S U −S
1 X n1 1 X 1 X
= yk πk = yk = yk
n1 N − n n1 N −n
U −S U −S U −S
1 X
= yk
n1
U −S

E(yˆ
¯U1 ) = y¯U1
7

Armación.

(a)

ˆ ˆt ) = 80 + 270 + 360 − 72 − 120 − 360


V ar( π
ˆ ˆ
V ar( tπ) = 158

Ahora, la varianza del estimador para las posibles muestra,estan dadas por:

2  2  
ˆ ˆt ) = 411 y1 422 y2 412 y1 y2
1.V ar( π + + ( )
π11 π1 π22 π2 π12 π1 π2
16 2 21 2 16 21
= (0,2)( ) + (0,3)( ) − (0,12)( )( )
0,8 0,7 0,8 0,7
= 80 + 270 − 72
ˆ ˆt ) =
V ar( 278
π

ˆ ˆt ) = 16 2 18 2 16 18
2.V ar( π (0,2)( ) + (0,4)( ) − (0,20)( )( )
0,8 0,6 0,8 0,6
= 80 + 360 − 120
ˆ
V ar( ˆtπ) = 320

ˆ ˆt ) = 21 2 18 2 21 18
3.V ar( π (0,3)( ) + (0,4)( ) − (0,4)( )( )
0,7 0,6 0,8 0,6
= 270 + 360 − 315
ˆ
V ar( ˆtπ) = 158

Ahora.

ˆ ˆt )) ˆ ˆt )
X
E(V ar( π = P (Si )V ar( π
kSi
= (0,4)(278) + (0,3)(320) + (0,2)(315) + (0,1)(158)
= 111,2 + 96 + 63 + 15,8
ˆ ˆt ))
E(V ar( = 286
π
8

8) Muestre que la varianza V1 dada por (2.9.8) y el estimador de varianza Vˆ1 dado por (2.9.9) puede
escribirse.

m   
P yk2 P yki 2
V1 = pk − t y V̂1 =
2 1
m−1 pk i − mî2pwr
U i=1

Solución.

X  yk 2
V1 = −t pk
pk
U
m  2
1 X yki
V̂1 = − t̂pwr
m − 1 i=1 pki
m
1 X yki
t̂pwr =
m i=1 pki

X  yk 2
V1 = pk−t
pk
U
" #
X  yk  2 yk
= − 2 t + t2 p k
pk pk
U
"  #
2
X yk yk 2
= pk − 2 tpk + pk t
pk pk
U
X yk 2
  X X
= pk − 2 yk t + pk t2
pk
U U U
X yk 2 X X
2
= − 2 yk t + pk t
pk
U U U
X yk 2 X X
= − 2t yk + t 2 pk
pk
U U U
X yk 2
= − 2t(t) + t2 (1)
pk
U
X yk 2
= − 2t2 + t2
pk
U
X yk 2
= − t2
pk
U
9

(b)

m  2
1 X yki
V̂1 = − t̂pwr
m − 1 i=1 pki
m  2   !
1 X yki yki 2
= −2 t̂pwr + t̂pwr
m − 1 i=1 pki pki
m  2 m   m
1 X yki 2 X yki 1 X2
= − t̂pwr + t̂
m − 1 i=1 pki m − 1 i=1 pki m − 1 i=1 pwr
m  2 m   m
1 X yki 2t̂pwr X yki m X2
= − + t̂
m − 1 i=1 pki m − 1 i=1 pki m − 1 i=1 pwr
m  2   X m  ! X m  !   Xm  !2
1 X yki 2 1 yki yki 1 1 yki
= + +
m − 1 i=1 pki m−1 m i=1
pki i=1
pki m−1 m i=1
pki
m  2 m   2
! m   2
!
1 X yki 2 X yki 1 X yki
= + +
m − 1 i=1 pki m(m − 1) i=1 pki m(m − 1) i=1 pki
m  2 m   2
!
1 X yki 1 X yki
= +
m − 1 i=1 pki m(m − 1) i=1 pki
m  2 m  !2
1 X yki m X yki
= + 2
m − 1 i=1 pki m (m − 1) i=1 pki
m  2 m  !2
1 X yki m 1 X yki
= +
m − 1 i=1 pki (m − 1) m i=1 pki
 
m  2 m  !2
1 X yki 1 X yki
= +m 
m − 1 i=1 pki m i=1 pki
"m  #
1 X yki 2
2
= + mt̂pwr
m − 1 i=1 pki
10

9). Pruebe que las probabildades de inclusión de segundo orden bajo un diseño de mustreo con reem-
plazo esta dada por:
m
πkl = 1 − (1 − pk ) − (1 − pl ) m + (1 − pk − pl ) m

Demostración:

Para hallar las probabilidades debemos negar que (k ∈ S y l ∈ s).


Esto es (k ∈
/S yl∈ / s); Sean dos eventos A = k ∈
/S yB=l∈ / s; de donde se sigue que P (A ∪ B) =
P (A) + P (B) − P (A ∩ B). Estas probabilidades siguen un modelo binomial, luego;

πkl = P (k ∈ S y l ∈ s)
= 1 − P (k ∈
/ S) − P (l ∈
/ s) + P (k, l ∈
/ s)
m
m m m−m
= 1 − (1 − pk ) − (1 − pl ) + (1 − pk − pl ) m (pk − pl )
m
m m
= 1 − (1 − pk ) − (1 − pl ) + (1 − pk − pl ) m

El cuarto sumando en la igualdad anterior se obtiene considerando que cada igualdad se toma co-
mo un proceso Bernoulli donde el éxito es no escoger ni a k ni a l. Por tanto

P (Éxito) = 1 − P (F racaso)
= 1 − P (Escoger a k) − P (Escoger a l) + P (Escoge ambos)
= 1 − pk − pl

Ya que como se trata de un ensayo, la probabilidad de escoger ambos es nula.

Você também pode gostar