Você está na página 1de 25

Tema 1: INTRODUCCIÓN Á INFERENCIA.

Introducción

A inferencia estatística é o proceso que nos permite establecer conclusións sobre unha
poboación a partir das conclusións obtidas dunha parte representativa dela (unha mostra
representativa).

É un proceso de xeralización: a partir de algo máis pequeno extráense conclusións para


algo máis grande.

Neste proceso vai existir unha marxe de incerteza, debido a estar traballando con
fenómenos aleatorios. Por esa razón, as conclusións mostrais adoitan variar cando varía
a mostra, polo cal, o que se obtén en realidade non son conclusións únicas se non un
intervalo de conclusións nos que probablemente (con alta probabilidade) estarán as
verdadeiras conclusións sobre a poboación.

Exemplo: cal é a esperanza de vida das persoas que non fuman?

Para respostar a esa pregunta con certeza absoluta teríamos que analizar os datos de
tódalas persoas que non fuman1. Dado que iso é pouco factible, faise a análise cunha
mostra.

Se a mostra foi ben seleccionada teremos os resultados diranos que o verdadeiro valor da
esperanza de vida de quen non fuma estará cercano a eses resultados cunha certeza
determinada.

De feito, o verdadeiro valor da esperanza de vida desa poboación non o poderemos


saber, xa que a Inferencia Estatística só nos vai dar unha aproximación e unha certeza,
que será o máximo que se pode obter a partir dunha mostra.

Inferencia e método científico

A Inferencia é tamén unha importante ferramenta para o método científico, por que sirve
para contrastar, e diranos se a “realidade” permite manter as afirmacións feitas nunha
teoría ou debemos rexeitalas.

1 En realidade a esperanza de vida ven sendo un promedio da idade na cal morren as persoas, polo cal
necesitaríamos analizar a tódalas persoas non fumadoras que morreron.
De maneira moi simplificada os pasos do método científico serían:

– Proposta dunha teoría, na que se especifican propiedades e características do


campo ao que se aplica esa proposta. É valida esa proposta? Podemos manter os
seus supostos?

– Para averiguar a súa validez debemos “preguntarlle á realidade”, cales son as


características que podemos inferir da análise de situacións reais.

É neste apartado onde ten sentido as técnicas estatísticas, xa que coñeceremos a


realidade a partir da análise de datos procedentes desa realidade.

– Á vista da análise da realidade, ¿podemos manter o que afirmamos na proposta


teórica ou debemos desbotalo?

Os resultados obtidos dunha mostra vanse ver afectados pola aleatoriedade:


mostras diferentes poden dar resultados diferentes, nembargantes, se as mostras
foron ben tomadas eses datos presentarán unha certa coherencia, que nos
permitirán supoñer que os resultados poboacionais2 están na contorna dos
resultados mostrais.

Tendo iso en conta, comprobaremos se os resultados teóricos que se obterían coa


nosa proposta están dentro desa contorna dos resultados obtidos a partir da
mostra:

– Si?: podemos seguir aceptando a proposta teórica

– Non?: Debemos rexeitala, non podemos sostela coas evidencias que nos
proporciana a “análise da realidade”

Exemplo: Viven o mesmo tempo as persoas que fuman cás persoas que non fuman?

Proposta teórica: Si, o tabaco non afecta a esperanza de vida das persoas.

Análise: analizamos a esperanza de vida dunha mostra de fumadores e doutra de non


fumadores. Obtemos resultados de esperanza de vida de fumadores e de non fumadores

Contraste: as esperanzas de vida mostrais de fumadores e non fumadores son as


mesmas? A diferencia entre elas podemos manter que

é cero?

2 Os resultados verdadeiros, os da poboación, que non coñeceremos por que para facelo sería necesario
analizar tódolos individuos da poboación.
Os resultado mostral danos a coñecer un rango de valores probable para a diferencia
entre as esperanzas de vida dos dous colectivos: está o cero dentro dese rango:

– Si? Podemos seguir afirmando que non hai diferencias entre as esperanzas de vida
de fumadores e non fumadores

– Non? Debemos considerar esa proposta teórica como falsa e afirmar que sí existen
diferencias na esperanza de vida dos dous colectivos

O proceso de inferencia

Conceptos.

Inferencia Estatística: Conxunto de técnicas estatísticas que permiten razoar (inferir) o


comportamento dunha poboación a partir do comportamento dunha mostra.

Poboación: Conxunto de elementos sobre o que se vai realiza-lo estudio.

Mostra: Subconxunto finito de elementos da poboación.

Tamaño mostral: Nº de elementos da mostra.

Censo: Estudio que se realiza analizando tódolos individuos dunha poboación.

Parámetro: Característica numérica da poboación.

Estatístico: Calquera función das observacións mostrais que non contén ningún
parámetro descoñecido.

Estimador: Función das observacións mostrais destinada a obter información sobre un


parámetro descoñecido.

Estimación: Valor que toma un estimador para unha mostra concreta.

Contraste de Hipótese: Regras, elaboradas a partir das observacións mostrais, que


permiten decidir se os supostos feitos a priori sobre o modelo deben ser rexeitados ou
non.
A inferencia Estatística aplícase para o estudo das propiedades de algún fenómeno
aleatorio que afecta a un conxunto de individuos (a poboación). Ese fenómeno será unha
variable3, que tomará un valor para cada individuo.

O comportamento dese fenómeno aleatorio será descrito mediante unha variable aleatoria
, a cal terá asociada unha función de distribución F(x).

Para coñecer o comportamento do fenómeno aleatorio vainos interesar coñecer algunhas


das súas características, que estarán asociadas a parámetros 1, 2, ... k, que en principio
descoñeceremos.

Distribución conxunta da mostra.

Para obter información sobre eses parámetros vaise traballar cunha mostra da
poboación. No ámbito deste curso considerarase que esta mostra é unha mostra
aleatoria simple4, así tódolos individuos da poboación terán a mesma probabilidade de
seren seleccionados, e o valor que lles corresponda vai ser independente do valor que
lles corresponda ós demais individuos da mostra.

Para un individuo i da mostra, imos ter un valor que pode ser considerado como un
resultado dunha variable aleatora i, que se comporta segundo unha distribución F(x), do
mesmo tipo cá variable aleatoria .

Se traballamos cunha mostra de tamaño n poderemos considerar ós seus valores


(x1,x2, ... , xn) como unha realización dunha variable aleatoria n-dimensional (1, 2, ... , n),
a cal vai tomar valores dentro do espacio mostral formado por tódalas mostras posibles
para o fenómeno e a poboación estudadas.

A función de densidade (ou de contía) asociada a ese vector n-dimensional


denomínase Función de Verosimilitude.

3 Tamén se poden estudar varias variables, pero referirémonos unicamente a 1 por simplicidade

4 Introduciranse diferentes tipos de mostras no tema 7


Ó traballar con mostras aleatorias simples vaise cumplir para esta función de
verosimilitude:
n
f(x1, x2, ... , xn) = f(x1)·f(x2)·...·f(xn)= ∏ f  xi 
i=1

e para a súa función de distribución:


n
F(x1, x2, ... , xn) = F(x1)·F(x2)·...·F(xn)= ∏ F  xi 
i=1

Estatístico: definición e distribución na mostraxe.

Habitualmente, as características que queremos averiguar sobre un fenómeno aleatorio


poderanse asociar a parámetros 1, 2, ... k , descoñecidos. A información sobre estes
parámetros obtense mediante funcións de valores da mostra (Estatísticos), ás cales son
tamén variables aleatorias, xa que son funcións de variables aleatorias. A función de
distribución que teñan asociada denomínase distribución na mostraxe do estatístico.

Coñecendo esta distribución poderase, a partir dos valores da mostra construír


inferencias sobre a poboación total.
Resultados xerais para algúns estatísticos.

Dada unha poboación, na cal se estudia un fenómeno que se comporta en función


dunha variable aleatoria , con E[]=; V()=2 (descoñécese a distribución)

Obtense unha mostra de tamaño n desa poboación:

x1, x2, ... , xn

Ao ser unha mostra aleatoria simple, cada un deses valores será independente dos
demais, polo tanto, calquera función que apliquemos a eses valores poderemos tratala
como unha función aplicada a variables aleatorias independentes. Veremos o caso xeral
da media aritmética, da varianza e da cuasevarianza.

Media mostral.
n

Pódese calcular a media aritmética desa mostra:


∑ xi
i=1
x =
n

Dado que se traballa cunha m.a.s., o estatístico media aritmética x será unha función
de variables aleatorias independentes. Cada unha delas por separado coas mesmas
propiedades cá variable aleatoria poboacional. O estatístico media aritmética vai cumprir
sempre, independentemente do tipo de distribución, as seguintes propiedades:
2

Esperanza : E[ x ]=; Varianza: V( x )=
n

Demostración:

[ ]
n

∑ xi
[ ]
n n n
- 1 1 1 1
E [ x ] =
 1
E i=1
n
=
2 n
·E ∑ xi =
 3 n
·∑ E [ xi ] =
 4 n
· ∑ =5  n
· n ·=
6 

i=1 i=1 i=1

(1) definición de media aritmética (2) cambio de escala nunha media aritmética: a constante sae para fora
(3) esperanza dunha suma de variables = suma das esperanzas (4) A esperanza da poboación é , polo tanto é a
esperanza de cada xi tamén
(5) suma n veces unha constante = n· constante (6) simplificando
[ ]
n

∑ xi
[ ]
n n n
- 1 1 1 1 2
Var [ x ] =
1 
Var i=1
n
=
2
n
2
· Var ∑ x i =3  2 ∑
·
n i=1
Var [ i ] 4  2 ∑ 5  2
x = ·
n i=1
 2
=
n
· n·  2
=
 6 n
i=1

(1) definición de media aritmética (2) cambio de escala nunha varianza: a constante sae elevada ao cadrado
(3) varianza dunha suma de variables INDEPENDENTES = suma das varianzas (4) A varianza da poboación é 2,
polo tanto é a varianza de cada xi tamén
(5) suma n veces unha constante = n· constante (6) simplificando

Varianza mostral.
n
2

Varianza mostral:
∑  x i− x 
S 2= i=1
n

Dado que se traballa cunha m.a.s., a esperanza do estatístico S2 vai ser:

 n−1  2
E[S2]=  ;
n

A esperanza deste estatístico non coincide co parámetro poboacional (), polo que é
frecuente sustituilo pola cuasevarianza:
n
2
∑  x i− x 
S 2c = i=1
n−1

Neste caso a esperanza será:

E[Sc2]= E [ n
n−1  ]
· E [ S2 ] =
n
·
 n−1  n
n−1  2 2
 = ;
Resultados para poboacións normais. Unha mostra

Nos casos nos que o fenómeno se comporta como unha distribución N(,),
poderemos aplicar as propiedades das distribucións normais para averiguar que tipo de
distribución describe o comportamento dos anteriores estatísticos:

Ademáis, cando a distribución é normal as distribucións marxinais da media aritmética


e da varianza son independentes.

Para analizar as propiedades desa poboación extraemos unha mostra de tamaño n:

(x1, x2, ... , xn)

Cos datos obtidos nesa mostra aplicamos diferentes funcións para calcular os
parámetros nos que esteamos interesados.

Dado que a mostra pode ser considerada unha variable aleatoria n-dimensional:

(1, 2, ... , n)

Calquera función que apliquemos aos datos procedentes desa mostra vai ser tamén
unha variable aleatoria: por exemplo medias aritméticas ou varianzas.

Se eses parámetros calculados (parámetros mostrais) son variables aleatorias,


coñecendo a súa distribución podemos calculara a probabilidade de que tome diferentes
valores.

No que segue vanse mencionar os parámetros básicos que se calculan para


poboacións normáis e o tipo de distribución que seguen.

Media mostral:

No caso da media aritmética mostral temos dúas situacions diferentes, xa que podemos
coñecer ou non a varianza poboacional. Se a coñecemos o seu valor será unha
constante, e integrarase como constante na fórmula da distribución, pero se non a
coñecemos teremos que estimala a partir dos datos e, como consecuencia diso, a fórmula
que empreguemos afectará a distribución da media aritmética, cambiando a súa
distribución.


– Media mostral coa varianza coñecida:  ~ N(, )
n
– Media mostral coa varianza descoñecida:

Empregando a cuasevarianza mostral para estimar a varianza: n


 

−
 S 2c
~t n−1

Empregando a varianza mostral para estimar a varianza:  n−1


 
−
 S2
~ t n−1

A orixe destas últimas expresións é a sustitución do parámetro  polo fórmula mostral

equivalente: cuadesviación típica (  S 2c ) ou desviación típica (  S 2 ). Como consecuencia a


distribución da media aritmética deixa de ser Normal e pasa a ser unha t de Student.

Varianza mostral:

n· S2
2
~2n−1

Cuasevarianza mostral:

 n−1  S 2c
2
~ 2n−1

Resultados para poboacións normais. Dúas mostras.

No exemplo no cal se comparaba a esperanza de vida de fumadores e non fumadores


manéxanse dúas poboacións distintas, co obxectivo de facer comparacións entre algúns
dos seus parámetros. Nese exemplo era unha comparación de medias.

Nestes casos considéranse dúas poboacións: ~N(1, 1), ~N(2, 2).

Tómanse cadansúa mostra, independentes, de tamaños m e n, respectivamente

(x1, x2, ... , xm) e (y1, y2, ... , yn)

Para cada unha desas mostras podemos calcular os estatísticos amosados no


apartado anterior, e comportaríanse segundo o tipo de distribucións explicadas nese
mesmo apartado.
Por exemplo, cando as varianzas poboacionais son coñecidas, a distribución das

σ1 σ2
medias aritméticas será: ξ ~N(1, ), η ~N(2, ),.
m n
Se queremos comparar esas dúas medias podemos restalas, e á diferencia aplicarlle a
aditividade da Normal.

Diferencia de medias mostrais

A diferencia de medias permite comparar as medias de dúas mostras diferentes.

Diferencia de medias mostrais coa varianza coñecida:


ξ − η ~N(1-2,
  21  22
m n
 )

(Tense en conta que a esperanza da suma é suma de esperanzas e que a varianza de


v.a. independentes é suma de varianzas)

Diferencia de medias mostrais coa varianza descoñecida:

Para aplicar estas fórmulas é necesario considerar supoñer que as varianzas, ainda
que descoñecidas, son iguais nas dúas poboacións.

 
 − − 1 −2 

– Usando a cuasevarianzamostral:  1 1

m n
~ t mn−2

  m−1  · S 2c1  n−1  · S 2c2


 mn−2 

 
 − − 1−2 

– Usando a varianza mostral:  1 1



m n
~ t mn−2

 m· S21n· S22
 mn−2 
Cociente de varianzas.

A comparación de varianzas faise mediante un cociente, en lugar de empregar unha


diferencia.
2 2
m n−1 S c1  2
– Empregando a cuasevarianza mostral: · · · ~ Fm −1, n−1
m−1 n S 2c2  21

S 21  22
– Empregando a varianza mostral: · ~ F m−1,n−1
S 22  21

Resultados para unha poboación Binomial

Estimación dunha proporción.

Cando facemos un estudo de mercado, e queremos averiguar que porcentaxe de xente


consume un determinado producto, desde un punto de vista estatístico estamos
interesados en estimar a proporción p.

Sería unha proporción para unha característica que se representa mediante unha
variable aleatoria Binomial: contamos 1 se o individuo entrevistado consume o producto,
e 0 se non o consume.

Como consecuencia teríamos unha variable ~Bi(1,p), sendo p descoñecido, e sendo


ademais o valor que nos interesa estimar. Ademais sabemos que E[]=p; V()=p·(1-p).

Como nos interesa estimar a proporción tomaremos unha mostra de tamaño n. A media

aritmética mostral dos valores da mostra será ξ = 


nº de entrevistados que responderon si
n
,e 
serviranos como estimador do valor de p.

Aplicando as propiedades xerais do estatístico media aritmética, compriríase:

p · 1− p 
E[ ξ ]=p; V( ξ )=
n

sen saber a súa distribución. Sen embargo, para mostras grandes, (n>30), podería

aplicarse o Th. de De Moivre e aproximarse por unha distribución N(p,


 p · 1− p 
n
)

- Proporción p : (n>30) N(p,


 p · 1− p 
n
)
Estimación da diferencia entre dúas proporcións

En ocasións facer a análise implican comparar a proporción de ocorrencia dun suceso


en dúas poboacións diferentes. Sería o caso de comprobar a porcentaxe de poboación
que consume un certo tipo de producto en dúas localidades diferentes.

Temos logo un experimento que da lugar a unha variable aleatoria con dous resultados
(compra, non compra), aplicado en dúas poboacións diferentes.

Para cada individuo da primeira localidade teríamos unha v.a. ~Bi(1,p1), e outra v.a.
~Bi(1,p2),para os individuos da outra localidade.

Os parámetros p1 e p2 serían descoñecidos, ademais sabemos que

E[]=p1; V()=p1 (1-p1); E[]=p2; V()=p2 (1-p2)

Como nos interesa estimar a diferencia entre esas proporcións tomaremos unha mostra
en cada poboación, de tamaños m e n.

As medias aritméticas mostrais dos valores da mostra serán:


= 
nº que responderon si na 2ª localidade
n  
=  nº que responderon si na 2ª localidade
n 
e servirannos como estimadores de p1 e p2

Aplicando as propiedades xerais do estatístico media aritmética, compriríase:

p 1 · 1− p1  p 2 · 1− p2 
E[  ]=p1; V(  )= E[ 
 ]=p2; V(  )=
m n

Ainda que non se sabe a súa distribución.

Sen embargo, para mostras grandes, (n>30), podería aplicarse o Th. de De Moivre e

aproximarse por distribucións Normais: N(p1,


 p 1 · 1− p1 
m
) ; N(p2,
 p 2 · 1− p2 
n
)

- Aplicando a aditividade das distribucións normais teríase para a diferencia de


proporcións o seguinte:


p1− p2 ~ N p1− p2 ;
 p1 · 1− p1  p 2 · 1− p 2 
m

n 
ESTIMACIÓN PUNTUAL

Como xa se expuxo no tema anterior, para coñece-lo comportamento dun fenómeno

aleatorio, será necesario coñece-lo comportamento da variable aleatoria  que o describe,

á súa vez o comportamento desta variable será descrito por unha función de distribución

F(x), da cal existirán algúns aspectos que descoñezamos e sobre os que será necesario

obter información a partir dunha mostra.

Estes aspectos poden afectar á forma de distribución (inferencia non paramétrica) ou

a algunhas características que se poden asociar con diferentes parámetros 1, 2, ... k,

(inferencia paramétrica).

Inferencia paramétrica.

Para poder dar un valor para un parámetro que non coñecemos necesitamos calculalo

a partir dunha función dunha mostra (que neste caso será denominada estimador). O

valor que se obtén é unha estimación, e teremos unha por cada mostra diferente dunha

poboación.

Para un parámetro determinado, van existir diferentes estimadores posibles, sen

embargo non todos serán igual de interesantes para esa estimación en particular.

Para decidir que estimador é apropiado para un determinado parámetro é necesario

considerar unha serie de propiedades desexables, de xeito que, canto mellor as cumpla,

máis interesante resultará o estimador.

PROPIEDADES DUN ESTIMADOR.

Sexa unha variable aleatoria , con función de distribución F(x,), sendo  o parámetro

descoñecido que desexamos estimar empregando un estimador  = T(x1, x2, ... , xn), o cal

por ser tamén un estatístico é unha variable aleatoria, e pode tomar valores diferentes
para mostras diferentes da mesma poboación. Interesaríanos que estes diferentes valores

estivesen nun entorno, o máis reducido posible do verdadeiro valor do parámetro.

Def.: Erro Cadrático Medio do estimador  para o parámetro , (ECM(  )) é o valor

esperado para o cadrado da diferencia entre o estimador e o verdadeiro valor do

parámetro:

ECM(  ) = E[(  -)2]

Def: Sesgo do estimador: -E[  ]

Desenvolvendo a expresión do ECM obtense:

ECM (  ) = Var(  )+(-E[  ])2 = Var(  ) + (Sesgo (  ))2

Son as dúas compoñentes do erro cometido cando se realiza unha estimación: a

variabilidade que ten  , como variable aleatoria que é e o erro que se comete cando o

valor do estimador non se centra no parámetro estimado.

O ideal para un estimador sería que fixese mínimo o ECM, sen embargo isto non

sempre se pode conseguir, xa sexa pola dificultade de averiguar cal é, ou simplemente

por que non existe, xa que dependera dos valores que tome o parámetro. Isto obriganos a

ter en conta outros criterios.

Insesgadez.

Def.:Sexa  = T(x1, x2, ... , xn) un estimador dun parámetro . Dise que é un estimador

insesgado de , se verifica que E[  ]=.

Def.: Sexa  n = T(x1, x2, ... , xn) un estimador dun parámetro . Dise que é un

estimador asintóticamente insesgado de , se verifica que:


lim E [ n ]= .
n∞

Consistencia.

Unha propiedade interesante para un estimador é que a medida que aumenta o

tamaño da mostra, o faga tamén a precisión do estimador:

Def.: Sexa  n = T(x1, x2, ... , xn) un estimador dun parámetro . Dise que é un

estimador consistente de , se verifica:

P
n  cando n ∞

Unha condición suficiente para a consistencia dun estimador é a seguinte:

Th.: Un estimador  que sexa asintoticamente insesgado, e que verifique

lim Var [ n ]=0 , vai ser un estimador consistente


n∞

Este teorema é unha condición suficiente, pero non necesaria, para a consistencia.

Eficiencia.

Unha avantaxe dos estimadores insesgados é que o seu ECM queda reducido á súa

varianza. Por esta razón, dentro deste tipo de estimadores será mellor aquel que teña

menor varianza.

Th.: (Cota de Cramer-Rao) Sexa n = T(x1, x2, ... , xn) un estimador insesgado dun

parámetro . Verifícase que:

1 1
Var   ≥ =

[ ]  [ ]
2 2
∂ Ln L ∂Ln f  x , 
E n· E
∂ ∂

Sendo L(x1, x2, ... , xn) a función de verosimilitude, e f(x,) a función de densidade da

variable aleatoria asociada á poboación.


Def.: (eficiencia absoluta). Sexa n = T(x1, x2, ... , xn) un estimador insesgado dun

parámetro . Dise que é o estimador insesgado máis eficiente de , se a súa varianza

coincide coa cota de Cramer-Rao.

Def.: (eficiencia relativa). Sexan  1 e  2 dous estimadores insesgados dun parámetro

. O estimador  1 dise que é máis eficiente ca  2 se se cumpre que:

Var(  1)<Var(  2)

Suficiencia.

Intuitivamente, un estimador suficiente dun parámetro  sería aquel que recolle toda a

información que a mostra posúe sobre el.

Def.: Sexa θ = T(x1, x2, ... , xn) un estimador dun parámetro . Ese estimador é

suficiente para o parámetro se a distribución da mostra condicionada o valor de  = t

non depende do parámetro .

Th.: (Factorización de Fisher-Neyman) Sexa x1, x2, ... , xn unha m.a.s. dunha poboación

con función de distribución F(x,), e sexa L(x1, x2, ..., xn; ) a función de verosimilitude da

mostra. Un estatístico  = T(x1, x2, ... , xn) é suficiente para o parámetro  se e só se

podemos facer a seguinte descomposición:

L(x1, x2, ..., xn; ) = g(T(x1, x2, ..., xn), )· h(x1, x2, ..., xn)

Sendo g(T, ) unha función que depende da mostra unicamente a traves do estatístico

T, e h unha función que só depende da mostra.

Con este teorema proporcionase un método para obter estatísticos suficientes,

ademais de para saber se o é un estatístico determinado.


MÉTODOS DE ESTIMACIÓN PUNTUAL.

A existencia duns métodos para a obtención de estimadores vai permitir que

dispoñamos, unha vez aplicados estes métodos, duns estimadores que van cumprir

unhas propiedades determinadas, que serán as que cumplan tódolos estimadores dun

tipo determinado.

Método de Máxima Verosimilitude.

Consideremos unha m.a.s. x1, x2, ... , xn, pertencente a unha poboación con función de

densidade (ou cuantía) f(x/).

O estimador de máxima verosimilitude do parámetro  será aquel valor para o cal sexa

máis probable que saíse a mostra obtida.

n
Se L()=L(x1, x2, ... , xn,)= ∏ f  x i∣  é a función de verosimilitude. O estimador de
i=1

máxima verosimilitude será aquel valor de  para o cal a función de verosimilitude toma o

valor máximo para a mostra dada.

Polo tanto este método obtén o estimador derivando a función de verosimilitude e

igualándoa cero, tendo en conta ademais que a segunda derivada neste punto non debe

ser negativa.

Propiedades.

Baixo condicións xerais:

1) Se existen estimadores eficientes insesgados o estimador MV é eficiente

2) é asintóticamente normal:   N(, Var(  )),

[ ] 
2
sendo Var(  )= ∂ Ln L
E
∂θ
3) é asintóticamente insesgado

4) é asintóticamente eficiente

5) é consistente

Método dos Momentos

Consiste en iguala-los momentos da poboación ós momentos da mostra, (tantos

momentos como parámetros se queiran estimar). Con iso obteríamos un sistema de

ecuacións do que despexaríamo-los parámetros que nos interesan, obtendo así a

expresión que nos da os estimadores.

Propiedades

1) É consistente

2) É asintóticamente normal

3) Soe ser doado de calcular


INTERVALOS DE CONFIANZA.

Os métodos explicados ata agora indicaban como estimar un valor para un parámetro

descoñecido a partir dos datos dunha mostra.

Sen embargo, con frecuencia, o que interesa é buscar un entorno no que se atope o

verdadeiro valor do parámetro cunha certa probabilidade, e para obtelo recórrese á

estimación por intervalos.

Se se estudia nunha poboación o comportamento dunha variable aleatoria , con

función de densidade f(x|), pódese construir un intervalo (t1, t2) de xeito que conteña ó

parámetro  cunha probabilidade  (Isto quere dicir que o % dos intervalos construidos

conterán o parámetro buscado).

O intervalo (t1, t2) é un intervalo de confianza, e o valor  o seu nivel de confianza.

Mentres que =1- é o seu nivel de significación.

En xeral, o proceso para construir un intervalo de confianza comeza decidindo o nivel

de confianza () que nos interesa. Despois, escóllese o estimador (  ) máis apropiado

para o parámetro de interese ().

Tendo en conta a distribución na mostraxe asociada co estimador calcularanse dous

valores t1, t2 t.q.:

P(t1' θ t2')=

Dado que existen infinitos valores que cumpren esa condición, entre todos eles

seleccionarase aquel par que faga menor a lonxitude do intervalo.

Posteriormente despexaríase o parámetro do estimador e obteríase:

P(h(t1')  h(t2'))=
tomando t1=h(t1'); t2=h(t2'), (t1, t2) sería o intervalo de confianza para o parámetro , cun

nivel de confianza .

O intervalo de confianza pode ser tamén da forma (-, t), (t, ). Neste caso dise que

son intervalos dunha soa cola, mentres que o anterior era un intervalo de dúas colas.

INTERVALOS DE CONFIANZA PARA POBOACIÓNS NORMAIS.

En caso de traballar con poboacións N(,), os intervalos de confianza para os seus

parámetros serían:

Media con varianza coñecida

Neste caso soe empregarse como estimador a media aritmética,  , o cal, cando é

2
coñecida a varianza poboacional segue unha distribución N(, ). Logo, para unha
n
mostra de tamaño n tense que:

 −
 ~N(0,1)
n

Para un nivel de confianza  (e polo tanto para un nivel de significación ), e para un


intervalo con dúas colas, buscaríase un valor z/2 tal que P(N(0,1)> z/2 )= . Ou o que é
2
o mesmo:

P(-z/2 <N(0,1)< z/2) = 1- = 

De aí dedúcese que:

 −
P(-z/2 <  < z/2) = 1- = 
n
 
P( −z / 2 · <<  z  /2 · ) = 1- = 
n n
O intervalo de confianza para o parámetro  con  coñecido, con nivel de confianza ,

sería:

±z  /2 ·  ,sendo z/2 un valor tal que P(N(0,1)> z/2 )=



; e =1-.
n 2

Varianza.

Os estimadores que se soen empregar para o parámetro 2 son a varianza ou a


cuasevarianza mostrais, os cales verifican, para unha mostra de tamaño n:

nS2
A varianza mostral: ~ 2n
2

(n-1)S2c
A cuasevarianza mostral: 2
~ 2n−1

Empregando a cuasevarianza mostral, para un nivel de confianza  (nivel de


2 2
significación ), e un intervalo de dúas colas, buscaríanse uns valores n−1, /2 , n−1,1− /2
tal que:

 2 
P( 2n−1 > 2n−1,α /2 )= ; e P( 2n−1 > n−1,1−α /2 )= 1- ;.
2 2
2
Tense logo que: P( n−1,1−α /2 < 2n−1 < 2n−1,α /2 ) = 1- = 

2 (n-1)S2c
E polo tanto: P( n−1,1−α /2 < 2 < 2n−1,α /2 ) = 1- = 

2
(n-1)S2c (n-1)Sc
P( 2 < 2 < 2 ) = 1- = 
n−1,α/ 2  n−1,1− α / 2

Se empregásemos a varianza mostral sería:

2 2
n·S n·S
P( 2 < 2 < 2 ) = 1- = 
 n−1, α / 2  n−1,1− α / 2
Media con varianza descoñecida

Neste caso necesítase estimar o valor de . Se empregamos a cuasevarianza


mostral,a media aritmética  verifica:

n
 
−
S2c
~ t n−1

Para un nivel de confianza  (nivel de significación ), e para un intervalo con dúas
colas, buscaríase un valor tn-1,/2 tal que:


P(tn-1> tn-1,/2)= .
2

Ou o que é o mesmo: P(-tn-1,/2 <tn-1< tn-1,/2) = 1- = 

Polo tanto: P(-tn-1,/2 <  n


 
−
S2c
< tn-1,/2) = 1- = 

P( 
−t n−1, /2 ·
S 2
c
<< 
t n−1, /2 ·
S 2
c
= 1- = 
n n

O intervalo de confianza para o parámetro  con  estimado mediante a cuasevarianza

mostral, e con nivel de confianza , sería:

±t n−1, /2 · 
S 2c 
, sendo tn-1,/2 un valor tal que P(tn-1> tn-1,/2)= ;
n 2

Se se empregase a varianza mostral sería:

±t n−1, /2 ·  S
2

, sendo tn-1,/2 un valor tal que P(tn-1> tn-1,/2)= ;
 n−1 2
Diferencia de medias poboacionais, con varianzas coñecidas.

O intervalo de confianza para a diferencia de medias (1-2) con  coñecido, nivel de

confianza  e tamaños mostrais n1 e n2 sería:

 1−2n ±z  /2 ·
  21  22

n1 n2
,sendo z/2 t.q. P(N(0,1)> z/2 )=

2
; e =1-.

Polo tanto:

P(  1−2n −z  /2 ·
 21  22

n1 n2 
<(1-2)<  1−2n z  /2 ·
 21  22
 ) = 1- = 
n1 n2 
Diferencia de medias poboacionais, con varianzas descoñecidas.

O intervalo de confianza para a diferencia de medias (1-2), supoñendo o mesmo valor

de  para as dúas poboacións, estimándoo mediante a cuasevarianza mostral, con nivel

de confianza  e tamaños mostrais n1, e n2 sería:

 1−2 ±t n n −2, /2 ·


1 2
  n1−1  S 2c1 n2−1  S2c2
 n1n2−2 
·
 1 1 ,sendo t

n1 n2
n n −2,  /2 un valor
1 2


tal que P( t n n −2 > t n n −2,  /2 )= ; e =1-.
1 2 1
2 2

Empregando a varianza mostral:  1−2 ±t n n −2, /2 ·


1 2
 n1 · S21n2 · S22
 n1n2−2
·
 1 1

n1 n2

Cociente de varianzas

Empregando a cuasevarianza mostral, e para un nivel de confianza  (e polo tanto para


un nivel de significación ), e un intervalo de dúas colas, buscaríanse uns valores
F n −1,n −1, /2 , F n −1,n −1,1− /2 
tais que P  F n −1,n −1F n −1,n −1, / 2 = ; e
1 2 1 2 1 2 1 2
2


P  F n −1,n −1F n −1,n −1,1− / 2 =1−
1 2 1 2
2
2 2 2
S c2  2 S c2
Polo tanto: P( F n −1,n −1,1− /2 · 2 < 2 <
F n −1,n −1, /2 · 2 ) = 1- = 
1 2
S c1  1 1 2
S c1
MOSTRAS GRANDES.

Cando a distribución coa que se traballa non é N(,), en xeral non se dispon das

fórmulas exactas para os seus intervalos de confianza. Sen embargo, pódense aproximar

empregando o estimador máximo-verosimil do parámetro, que entre as súas propiedades

cumpría as de ser asintóticamente normal (   N(, Var(  )); asintóticamente

insesgado; e asintóticamente eficiente

Por esta razón, se queremos estimar un parámetro , dunha distribución descoñecida,


−
con nivel de confianza , farémolo tendo en conta que  N(0,1).
DT 


Así teríase que: P( −z · DT   << z
 · DT    = 
/ 2  /2

Na práctica, con frecuencia é necesario sustituir DT() pola súa estimación.

No caso de que se estivese estimando un intervalo para unha proporción p o intervalo

quedaría:

p±z  /2 ·
 p · 1− p 
n
sendo z/2 un valor tal que P(N(0,1)> z/2 )=

2
;

Você também pode gostar