Você está na página 1de 7

La estimacin por mxima verosimilitud aprovecha la estructura total de nuestro modelo, es decir, tanto la

especificacin de las relaciones entre las variables (por ejemplo, una relacin lineal entre y y x en una regresin
lineal) como las distribuciones de las variables no observables (la distribucin normal del trmino de error u del
modelo clsico de regresin lineal). Por tal motivo, los estimadores de ML son el primer paso hacia la econometra
estructural.
Siguiendo un sencillo modelo sobre el lanzamiento de una moneda al aire (extendiendo el del libro Dynamic
Economics (2003) de Adda y Cooper, captulo 4), vamos a revisar los conceptos ms bsicos de una forma
principalmente prctica (ejemplos en Matlab adjuntos al final de esta pgina). Para mayores detalles de la teora,
referirse a Introductory Econometrics de Wooldridge, o para detalles tcnicos a Econometrics de Hayashi.

Asumamos que cada lanzamiento es independiente del otro. Si supisemos el valor del parmetro
lanzaran

y slo se

veces la moneda, la probabilidad de que fueran siempre cara sera:

Y de que la segunda fuese sello y las otras fuesen cara sera:

En general, para cualquier secuencia


observar dicha secuencia sera:

donde cae

veces cara y

veces sello, la probabilidad de

A esta probabilidad de observar la muestra la llamamos la verosimilitud. Para crear dicha funcin tuvimos que
asumir un modelo y especificarlo por completo: tuvimos que imponer una forma funcional a la probabilidad de la
ocurrencia de cada evento (caer cara o sello slo depende de este parmetro y cada lanzamiento es independiente
del otro). Es decir, el evento sigue una distribucin Bernoulli.

Podemos utilizar la funcin de verosimilitud para estimar el parmetro

respondiendo a la siguiente pregunta:

qu valor de
hace que sea ms probable observar la muestra que vemos en la realidad? Para ello,
maximizamos la funcin de verosimilitud:

O an mejor, el logaritmo de la log verosimilitud

Dado que la funcin logaritmo mantiene la concavidad de la funcin, el problema es equivalente

Para obtener la respuesta, dado que la funcin es continua y descartando soluciones extremas, podemos
simplemente utilizar clculo bsico:

Si hacemos la segunda derivada encontraremos que es negativa por lo que en efecto

maximiza la probabilidad

de ver los datos . Nuestro resultado es bsico: el mejor estimador de la probabilidad de que la moneda sea cara es
la proporcin de veces que la moneda cae cara en la muestra.
Generalmente no es posible derivar el estimador de forma analtica, por lo que usualmente se utilizan tcnicas de
optimizacin numrica para maximizar la funcin de verosimilitud. El siguiente ejemplo en Matlab nos permite
encontrar el mismo valor utilizando el optimizador fminbnd que se basa en un mtodo libre de derivadas.

monedaML.m
Disponemos de la siguiente informacin para calcular nuestro modelo.

% Los datos. 1 es cara, 0 es sello.


x =[0,1,0,1,1,1,0,0,0,0,1,1,0,1,0];
% Obtenemos la informacin esencial
T =length(x);
N1=sum(x);
% El estimador de mxima verosimilitud terico
P1t=N1/T
% El estimador de mxima verosimilitud numrico
P1n=fminbnd(@(P1) -logvBer(T,N1,P1) ,0,1)

% Grfica de la verosimilitud para los posibles


% valores de P1
plin=linspace(0,1,100);
logverosim=logvBer(T,N1,plin);
plot(plin,logverosim,'LineWidth',2)
title('Funcin de logverosimilitud')
ylabel('L(P)')
xlabel('P')
% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

logvBer.m
Es necesario calcular la funcin de verosimilitud para cada valor del parmetro

% logvBer.m %%%%%%%%%%%%%%%%%%%%%%%%%%%%
function logvBer = logvBer(T,N1,P1)

%
%
%
%

El
T
N1
P1

valor de la verosimilitud dados:


- Repeticiones totales
- Numero de caras
- Parmetro

logvBer=N1*log(P1)+(T-N1)*log(1-P1);
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

Ejemplo: Modelo probit bsico


Siguiendo con el caso de la moneda, podemos considerar caso ms elaborados como por ejemplo la forma ms
bsica de un modelo probit. Por ejemplo, la probabilidad de caer cara
un modelo

que depende de un parmetro

puede depender de algo ms complejo, de

. Uno de los casos ms utilizados es asumir que dicha

probabilidad es una funcin de la distribucin acumulada de la normal estndar


adicional modifica ligeramente la funcin de verosimilitud

. Este supuesto

La solucin analtica sera

En cuanto a nuestro cdigo en matlab, sera un cambio pequeo en la funcin de verosimilitud, como veremos a
continuacin.

monedaML.m (continuacin)
% El estimador de mxima verosimilitud terico
ThetaT=norminv(N1/T,0,1)
% El estimador de mxima verosimilitud numrico
ThetaN=fminbnd(@(theta) -logvBerPro(T,N1,theta)

,-10,10)

% Grfica de la verosimilitud para los posibles


% valores de P1
plin2=linspace(-10,10,100);
logverosim2=logvBerPro(T,N1,plin2);
plot(plin2,logverosim2,'LineWidth',2)
title('Funcin de logverosimilitud Probit')
ylabel('L(\theta)')
xlabel('\theta')
% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

logvBerPro.m
Es necesario calcular la funcin de verosimilitud para cada valor del parmetro

% logvBerPro.m %%%%%%%%%%%%%%%%%%%%%%%%%%%%
function logvBerPro = logvBerPro(T,N1,theta)
% La probabilidad es una funcin de la distribucin normal acumulada
% El valor de la verosimilitud dados:
% T - Repeticiones totales
% N1 - Numero de caras
% theta - Parmetro
logvBerPro=N1*log(normcdf(theta,0,1))+(T-N1)*log(1-normcdf(theta,0,1));
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

Como podemos ver el problema de optimizacin es menos obvio. El dominio de nuestro parmetro ya no es
slo
sino son todos los reales, lo que implica que debemos saber muy bien dnde buscar. Este problema es
normalmente an ms complejo en un modelo probit tradicional donde tendramos ms parmetros para optimizar
(ms dimensiones en dnde buscar). En estos otros casos quizs puede ser ms til utilizar tcnicas basadas en
derivadas como rutinas de Newton. Adicionalmente, recordemos que con funciones ms complejas podramos tener
potencialmente mltiples puntos donde la derivada es 0 y la condicin de segundo orden (sobre la matriz hessiana)
se cumple, lo que genera mayores inconvenientes.
Identificacin, Consistencia, Eficiencia y Propiedades asintticas
El estimador ML es consistente raz N y de hecho logra el estimador ms eficiente posible gracias a que utiliza toda
la informacin disponible. Claro, esto slo si la especificacin del modelo es correcta. La identificacin se logra bajo
las condiciones que permitan que hay un ptimo en la funcin de verosimilitud.
Para ms detalles tcnicos ver Econometrics de Hayashi

Ejemplos ms avanzados
Mnimos cuadrados ordinarios
El estimador de MCO puede obtenerse mediante mxima verosimilitud bajo cierto costo: es indispensable que el
error se distribuya de forma normal. Recordemos que cuando tenemos muchas observaciones, el estimador de MCO
es semiparamtrico, es decir, una parte del modelo se especifica (que sea lineal) y la otra no (la distribucin del
trmino de error slo debe cumplir con ser independiente para cada observacin). La normalidad del trmino de error
no es necesaria para nuestro anlisis de MCO gracias a las propiedades asintticas del estimador. Esto cambia
radicalmente para la versin de ML ya que necesitamos por completo especificar la distribucin del trmino de error
para poder definir la verosimilitud.
En el modelo clsico multivariado, donde tenemos

observaciones (aqu

son vectores fila para mayor

simplicidad de la notacin), el supuesto sobre el trmino de error implica la distribucin de


normal multivariada)

(aqu en trminos de una

Bajo lo anterior, la funcin de log-verosimilitud es fcil de derivar:

Gracias al tercer trmino es claro que el problema a solucionar es exactamente el mismo de MCO. De hecho, bajo
esta versin es posible mostrar que el estimador de MCO es el mejor estimador insesgado siguiendo el principio de
Cramer-Rao. Para ms detalles ver cualquier libro de econometra, por ejemplo: Hayashi (2000). Econometrics
Series de tiempo
Si simplificamos la idea bsica de la independencia de las observaciones, como usualmente ocurre en las series de
tiempo, la funcin de verosimilitud se complica notoriamente. En trminos de la moneda, si el hecho de que la
moneda caiga hoy cara y maana sello es diferente de que hoy caiga sello y maana cara. Nuestra funcin de
verosimilitud depende entonces de todas las probabilidades condicionales:

Esta estructura de verosimilitud es usual en modelos de series de tiempo como los ARMA y familiares.
Estructura de Markov
Una estructura de Markov simplifica bastante el anlisis de la series de tiempo. Recordemos que la idea bsica es
que el valor en slo depende del valor en
y no de los periodos anteriores. Esto reduce radicalmente el
nmero de probabilidades involucradas: slo basta calcular una matriz de transicin, es decir, las probabilidades de
pasar al estado

dado que se est en el estado ,

. La funcin de verosimilitud se reducira a:

Para el ejemplo de la moneda, equivaldra a decir que la probabilidad de caer cara depende de si la vez pasada cay
cara o sello. Por tal motivo, sin importar el nmero de repeticiones
cara a cara, cara a sello, sello a sello y sello a cara.

, se tendran que calcular slo 4 probabilidades:

100 problemas resueltos de estadstica multivariante: (implementados en Matlab)

Você também pode gostar