Você está na página 1de 17

PARTE I

Introducción Capítulo 1
modelización econométrica, una vista preliminar
1.1 Econometría - una breve reseña histórica
Es costumbre comenzar un libro de texto mediante la definición de su objeto de
estudio. En este caso, esto nos lleva de inmediato con el problema de definir
“econometría”. Esta definición, sin embargo, plantea algunas cuestiones
metodológicas muy difíciles que no podrían ser discutidos en esta etapa. El epílogo
podría ser un mejor lugar para dar una definición adecuada. A los efectos de la
discusión que sigue, basta con utilizar una definición de trabajo que sólo proporciona
amplias guía postes de su alcance previsto:
Econometría tiene que ver con el estudio sistemático de los fenómenos económicos a
partir de datos observados.
Esta definición es mucho más amplia que ciertas definiciones de libros de texto
estrechamiento de la materia objeto de la econometría a la “medición” de las
relaciones teóricas según lo sugerido por la teoría económica. Se argumenta en el
epílogo que la última definición de la econometría constituye un vestigio de una
metodología obsoleta, la del positivismo lógico (ver Caldwell (1982)). La posición
metodológica que subyace a la definición dada anteriormente se oculta en gran parte
detrás de la palabra “sistemática”. El término sistemática se utiliza para describir el
uso de los datos observados en un marco donde la teoría económica, así como la
inferencia estadística juegan un papel importante, ya que aún no definido. El uso de
los datos observados es lo que distingue a la econometría de otras formas de estudiar
los fenómenos económicos.
Econometría, que se define como el estudio de la economía a partir de datos
observados, pueden rastrearse ya en 1676, anterior a la economía como una disciplina
separada por un siglo. Sir William Petty podría ser acreditado con el primer
3 4 Una vista preliminar
intento “sistemática' para estudiar los fenómenos económicos a partir de datos en su
Arithmetik Política. Sistemática en este caso se utiliza en relación con el estado de la
técnica en estadística y economía de la época.
Petty (1676) utilizó los resultados pioneros en la estadística descriptiva desarrollados
por su amigo John Graunt y ciertas formas rudimentarias de la teorización económica
para producir el primer intento “sistemática' en el estudio de los fenómenos
económicos a partir de datos. Petty también podría ser reconocido como el primero en
someterse a una tentación más grave en modelos econométricos. De acuerdo con Hull,
uno de sus principales biógrafos y coleccionista de sus obras:
Petty veces parece estar buscando figuras que apoyen una conclusión a la que ya se ha
alcanzado: Graunt usa sus datos numéricos como base para las conclusiones, que no
quiso ir más allá de ellos.
(Ver Hull (1899), p. Xxv).
Econometría, desde los tiempos de Petty, ha desarrollado junto con las estadísticas y
la teoría económica de endeudamiento y préstamos a ambas materias. Con el fin de
entender el desarrollo de la econometría tenemos que relacionarlo con la evolución de
estos temas.
Graunt y Petty iniciaron tres desarrollos importantes en las estadísticas:
(1) la recogida sistemática de datos (numérico):
(2) la teoría matemática de' probabilidad relacionada con tablas de vida; y
(3) el desarrollo de lo que hoy llamamos la estadística descriptiva
(Véase el Capítulo 2) en un conjunto coherente de técnicas para el análisis
Datos numéricos. Era bastante lamentable que las dos últimas líneas de pensamiento
desarrollado en gran medida independientes entre sí durante los próximos dos siglos.
Su convergencia lenta durante la segunda mitad del siglo XIX y principios del XX en
manos de Galton, Edgeworth, Pearson e Y ULE, entre otras cosas, culminó con el
paradigma de Fisher, que iba a dominar la teoría estadística para el día de hoy.
El desarrollo del cálculo de probabilidades que emana de trabajo de Graunt comenzó
con Halley [1656-1742] y continuó con Moivre [1667-1754], Daniel Bernoulli [1700-
1782], Bayes [1702-1761], Lagrange [1736-1813 ], Laplace [1749-1827], Legendre
[1752-1833], Gauss [1789 1857], entre otras cosas. En las manos de Moivre la línea
principal del cálculo de probabilidades que emana de Jacob Bernoulli [1654-1705] se
unió a las tablas de vida de Halley para comenzar un notable desarrollo de la teoría de
la probabilidad (ver piratería (1975), Maistrov (1974).
El más importante de estos desarrollos se pueden resumir en los siguientes epígrafes:
(1) manipulación de probabilidades (suma, multiplicación); 1.1 Un breve resumen
histórico 5

(2) familias de funciones de distribución (normal, binomial, de Poisson,


exponenciales);

(3) ley de error, de mínimos cuadrados, errores menos absolutos;

(iv) teoremas de límites (ley de los grandes números, teorema del límite central);

(v) probabilidades de tablas de vida y anualidades;

(vi) aproximaciones de orden superior;


(vii) funciones generadoras de probabilidad. Algunos de estos temas serán
considerados con cierto detalle en la Parte II, ya que son la base de la inferencia
estadística.

La tradición en Arithmetik política originada por Petty fue continuada por Gregory
King [1656-1714]. Davenant podría ser acreditado con la publicación de la primera
lista “empírica” la demanda (véase Stigler (1954), dibujo libremente de obra inédita
del rey. Por esta razón, su demanda empírica para el horario de trigo se le atribuye al
rey y se ha llegado a conocer como la “ley del Rey” . Utilizando los datos de King en el
cambio en el precio (p,) asociado a un cambio dado en la cantidad (q,) Yule (1915)
deriva la ecuación empírica explícitamente como
p, = -2.33q, + 0.05q? -0.0017g). (1,1)
Aparte de esta curva de demanda, King y Davenant extendió la línea de pensamiento
en relación con las tasas de población y la muerte en varias direcciones, estableciendo
así una tradición en Arithmetik política, “el arte de razonar sobre las cosas por las
figuras, en relación con el gobierno”. Arithmetik política era a estancarse durante casi
un siglo sin avances significativos en el estudio descriptivo de los datos, aparte de
agrupamiento y cálculo de tendencias.
Desde el punto de vista teoría económica Arithmetik política jugó un papel importante
en la economía clásica donde los datos numéricos sobre stock de dinero, los precios,
los salarios, las finanzas públicas, las exportaciones y las importaciones fueron
ampliamente utilizados como herramientas importantes en sus diversas
controversias. El mejor ejemplo de la tradición establecida por Graunt y Petty es
proporcionada por Malthus ‘Ensayo sobre los principios de la Población’. En las
controversias bullonista y bancarios en moneda escuelas datos numéricos jugaron un
papel importante (ver Schumpeter (1954)). Durante el mismo periodo el cálculo de
números índices hizo su primera aparición.
Con el establecimiento de la sociedad estadística en 1834 se inició una actividad más
coordinada en la mayoría de los países europeos para obtener datos más fiables y
completos. Durante el período 1850-1890 una secuencia de congresos estadísticos
estableció una tradición común para la recopilación y publicación de datos sobre
muchas variables económicas y sociales haciendo un rápido progreso en este frente.
En relación con las técnicas estadísticas, sin embargo, el progreso fue mucho más
lento. Medidas de tendencia central (media aritmética, mediana, 6 Una vista
preliminar
Se desarrollaron modo, media geométrica) y las técnicas gráficas. Medidas de
dispersión (desviación estándar, rango intercuartil), correlación y frecuencias
relativas hicieron su aparición hacia el final de este periodo. Una de las principales
figuras de este periodo que puede ser considerado como una de las pocas personas a
horcajadas las tres líneas de desarrollo que emanan de Graunt y Petty era el
estadístico belga Quetelet [1796-1874].
Desde el punto de vista econométrico, el ejemplo más notable de modelado empírico
es el espárrago y de los presupuestos de la familia de Engel. El más importante de sus
conclusiones fue:
Cuanto más pobre es una familia, mayor es la proporción de su gasto total que debe
ser dedicada a la provisión de alimentos. (Citado por Stigler (1954).) Esto se conoce
como la ley de Engel y la relación entre el consumo y el ingreso como la curva de Engel
(ver Deaton y Muellbauer (1980)).
La contribución más importante durante este período (principios del siglo XIX) desde
el punto de vista de modelado era lo que hoy llamamos el modelo lineal de Gauss. En
la notación moderna, este modelo tiene la siguiente forma general:
y = XB + u, (1,2)
donde y isa Tx 1 vector de observaciones linealmente relacionadas con el desconocido
kx 1 vector f | a través de una conocida fija Txk matriz X (rango (X) = «, T> k) pero
sujeto a (observación) error u. Esta formulación se utiliza para modelar una situación
tal que:
se sospecha que para los ajustes x ,, x », ..., x, existe un valor y relacionados por una
relación lineal:
ky = Y Bi i = 1
cuando se desconoce B = ($,). Un número T de observaciones sobre y se puede hacer,
lo que corresponde a T diferentes conjuntos de (x ,, ..., x,), 1.e. se obtiene un conjunto
de datos (y,
Xi Xp) +++> X4), 1 = 1,2, ..., T, pero las lecturas y, en Y, están sujetas a error. (Ver
Heyde y Seneta (1977).)
El problema, como se ve en ese momento era uno de interpolación (aproximación), es
decir, a “aproximada' el valor de B. La solución propuesta llegó en la forma de la
aproximación por mínimos cuadrados de $ basado en la minimización de
u'u = (y XB) (y XB), (1.3) que conducen a B = (XX) Xy (1.4) 1.1 Un breve resumen
histórico 7
(Ver Seal (1967)). El problema, además de la solución, no tenían nada que ver con la
teoría de la probabilidad como tal. Los argumentos probabilísticos entraron en el
problema como una idea de último momento en los intentos de Gauss y Laplace para
justificar el método de mínimos cuadrados. Si los términos de error u ,, 1 = 1,2, ..., T se
supone
ser independientes y distribuidos de manera idéntica (11D) de acuerdo con la
distribución normal, 1.e.
u = N (0,0?), t = 1,2, ..., T, (1,5)
entonces f en (4) puede justificarse como la solución óptima”de un punto de vista
probabilístico (ver Heyde y Seneta (1977), Seal (1967), Maistrov (1974)). El modelo
lineal Gauss fue posteriormente objeto de una interpretación muy diferente en el
contexto de la teoría de la probabilidad por Galton, Pearson, y Yule, que dio lugar a lo
que se llama hoy en día el modelo de regresión lineal. VHE modelo dado en (2) ahora
se interpreta como basado enteramente en argumentos probabilísticos, y, y' X, se
supone que son variables aleatorias conjuntamente distribuidas normalmente y Xf
es visto como las expectativas condicional de Y, dado que X, = x, (X, toma el valor x,)
para t = 1,2, .... T, 1: e.
Ey /X.=x)=PBXx t = 1,2, ..., T, (16)
con el término de error u, definido por u, = S, - E (y, / X, = x,) (véase el capítulo 19 para
más detalles). El modelo de regresión lineal
y, = E (y, / X, = x) + u, t = 1,2, ..., T (17)
puede escribirse en forma de matriz como en (2) y los dos modelos se vuelven
indistinguibles en términos de notación. Desde el punto de vista de modelado, sin
embargo, los dos modelos son muy diferentes. El modelo lineal Gauss describe una
relación de ley-como”donde las x, ¡s son conocidos constantes. Por otro lado, el
modelo de regresión lineal se refiere a una relación “predictivo-como' donde Y, 1s
relacionados con los valores observados de la vector X al azar, (para mayor discusión,
véase el capítulo 19). Esta diferencia importante pasó desapercibido por Galton,
Pearson y principios del siglo XX en econometría aplicada. Galton, en particular utilizó
el modelo de regresión lineal para establecer relaciones causales “ley-like” en el apoyo
de sus teorías de la herencia en la disciplina a continuación, de reciente creación de la
eugenesia.
El modelo lineal de Gauss fue desarrollado inicialmente por los astrónomos en su
intento de determinar las relaciones de “derecho” como para las órbitas planetarias,
utilizando un gran número de observaciones con menos de instrumentos totalmente
precisos. La naturaleza de su problema era tal que les permita asumir que sus teorías
podrían dar cuenta de toda la información en los datos aparte de un ruido blanco
(véase el capítulo 8) término de error u ,. La situación se está modelando se asemeja a
una situación de “diseño experimental”, debido a la constancia relativa de los
fenómenos en cuestión con la naturaleza jugando el papel del 8 Una vista preliminar
experimentador. Más tarde, Fisher extendió la aplicabilidad del modelo lineal Gauss a
“fenómenos experimental-como' utilizando la idea de la asignación al azar (véase
Fisher (1958)). Del mismo modo, el modelo de regresión lineal, firmemente basado en
la idea de la esperanza condicional, se extendió posteriormente por Pearson para el
caso de regresores estocásticos (ver Seal (1967).
En el contexto de los modelos de regresión lineal y lineal de Gauss la convergencia de
la estadística descriptiva y el cálculo de probabilidades se convirtieron en una
realidad, con Galton [1822-1911], Edgeworth [1815-1926], Pearson [1857-1936] y
Yule [1871 -1951] siendo los principales protagonistas. En las manos de Fisher [1890-
1962] la convergencia se completó y se propuso un nuevo paradigma de modelado.
Uno de los factores más importantes que contribuyen a esta evolución de principios
del siglo XX fue la disponibilidad de datos más completos y fiables hacia el final del
siglo XIX. Otro hecho importante que contribuye a la convergencia del estudio
descriptivo de los datos y el cálculo de probabilidades llegó en forma de Pearson s
famil y de curvas de frecuencia que proporcionaron la base para la transición de
histogramas para funciones de densidad de probabilidad (véase el capítulo 2). Por
otra parte, los diversos conceptos y técnicas desarrolladas en la estadística descriptiva
debían ser reinterpretados y proporcionar la base para el marco de la teoría de
probabilidades. Las curvas de frecuencia tal como se utiliza en la estadística
descriptiva proporcionan modelos convenientes”para los datos observados en la
mano. Por otro lado, las funciones de densidad de probabilidad se postulan como
“modelos” de la población dando lugar a los datos con el último visto como una
muestra representativa de los primeros. La transición de las estadísticas descriptivas
para el enfoque de la teoría de probabilidades en el modelado estadístico pasó casi
desapercibida hasta mediados de la década de 1930 cuando este último enfoque
formalizado por Fisher dominó la escena. los diversos conceptos y técnicas
desarrolladas en la estadística descriptiva debían ser reinterpretados y proporcionar
la base para el marco de la teoría de probabilidades. Las curvas de frecuencia tal como
se utiliza en la estadística descriptiva proporcionan modelos convenientes”para los
datos observados en la mano. Por otro lado, las funciones de densidad de probabilidad
se postulan como “modelos” de la población dando lugar a los datos con el último visto
como una muestra representativa de los primeros. La transición de las estadísticas
descriptivas para el enfoque de la teoría de probabilidades en el modelado estadístico
pasó casi desapercibida hasta mediados de la década de 1930 cuando este último
enfoque formalizado por Fisher dominó la escena. los diversos conceptos y técnicas
desarrolladas en la estadística descriptiva debían ser reinterpretados y proporcionar
la base para el marco de la teoría de probabilidades. Las curvas de frecuencia tal como
se utiliza en la estadística descriptiva proporcionan modelos convenientes”para los
datos observados en la mano. Por otro lado, las funciones de densidad de probabilidad
se postulan como “modelos” de la población dando lugar a los datos con el último visto
como una muestra representativa de los primeros. La transición de las estadísticas
descriptivas para el enfoque de la teoría de probabilidades en el modelado estadístico
pasó casi desapercibida hasta mediados de la década de 1930 cuando este último
enfoque formalizado por Fisher dominó la escena. Las curvas de frecuencia tal como
se utiliza en la estadística descriptiva proporcionan modelos convenientes”para los
datos observados en la mano. Por otro lado, las funciones de densidad de probabilidad
se postulan como “modelos” de la población dando lugar a los datos con el último visto
como una muestra representativa de los primeros. La transición de las estadísticas
descriptivas para el enfoque de la teoría de probabilidades en el modelado estadístico
pasó casi desapercibida hasta mediados de la década de 1930 cuando este último
enfoque formalizado por Fisher dominó la escena. Las curvas de frecuencia tal como
se utiliza en la estadística descriptiva proporcionan modelos convenientes”para los
datos observados en la mano. Por otro lado, las funciones de densidad de probabilidad
se postulan como “modelos” de la población dando lugar a los datos con el último visto
como una muestra representativa de los primeros. La transición de las estadísticas
descriptivas para el enfoque de la teoría de probabilidades en el modelado estadístico
pasó casi desapercibida hasta mediados de la década de 1930 cuando este último
enfoque formalizado por Fisher dominó la escena.
Durante el periodo 1890-1920 la distinción entre la población desde donde los datos
observados constituyen una muestra y la muestra en sí era borrosa por los
estadísticos aplicados. Esto se debió principalmente porque el paradigma utilizado
tácitamente, tal como fue formulada por Pearson, estaba firmemente enraizada en la
tradición estadística descriptiva, donde se necesita el modelado de las ganancias de
los datos observados en la mano para el modelo de frecuencia (probabilidad) y no hay
distinción entre la población y la muestra . En cierto sentido, la población se compone
de los datos en la mano. En el contexto del paradigma Fisher, sin embargo, el
modelado de un modelo de probabilidad se postula como una descripción
generalizada del proceso de generación de datos reales (DGP), o de la población y los
datos observados son vistos como una realización de una muestra del proceso de . La
transición de la Pearson al paradigma Fisher era bastante lento y pasó inadvertido
incluso por los protagonistas. En los intercambios entre Fisher y Pearson acerca de la
superioridad de la estimación de máxima verosimilitud sobre el método de los
momentos por razones de eficiencia, Pearson 1.1 Una breve reseña histórica 9
Nunca señaló que su método de momentos fue desarrollado para un paradigma
estadístico diferente, donde el modelo de probabilidad no se postula a priori (véase el
Capítulo 13). La distinción entre la población y la muestra se planteó inicialmente
durante la última década del siglo XIX y principios del XX en relación con las
aproximaciones de orden superior de los resultados teorema del límite central (CLT)
que emanan de Bernouli, Moivre y Laplace. Estos teoremas de límites se agudizaron
considerablemente por la escuela rusa (Chebyshev [1821-1894], Liapounov [1857-
1922], Markov [1856-1922], Kolmogorov [1903] (véase Maistov (1974) y utilizado
ampliamente durante este período. Edgeworth y Charlier, entre otros, propusieron
expansiones asintóticas que podrían utilizarse para mejorar la aproximación que
ofrece el CLT para un tamaño de muestra dada T (ver Cramer (1972)). La transición
desde el Pearson al paradigma Fisher se hizo evidente en la década de 1930 cuando se
formuló la teoría de la estimación y como la conocemos hoy en día. lt fue también el
momento en que la propia teoría de probabilidad se le dio sus fundamentos
axiomáticos por Kolmogorov (1933) y firmemente establecido como parte de la
matemática apropiada. Por la teoría de la probabilidad a finales de 1930, así como la
inferencia estadística como los conocemos hoy en día se estableció firmemente. La
transición desde el Pearson al paradigma Fisher se hizo evidente en la década de 1930
cuando se formuló la teoría de la estimación y como la conocemos hoy en día. lt fue
también el momento en que la propia teoría de probabilidad se le dio sus
fundamentos axiomáticos por Kolmogorov (1933) y firmemente establecido como
parte de la matemática apropiada. Por la teoría de la probabilidad a finales de 1930,
así como la inferencia estadística como los conocemos hoy en día se estableció
firmemente.
El modelos de regresión lineal lineal Gauss y eran apropiados para el modelado
esencialmente fenómenos estáticos. Yule (1926) discute las dificultades planteadas
cuando se utilizan datos de series temporales en el contexto del modelo de regresión
lineal y dio una discusión detallada de 'regresiones sin sentido' (ver Hendry y Morgan
(1986)). En un intento de evitar estos problemas, Yule (1927) propuso el modelo
autorregresivo lineal (AR (m)) donde la x ,, s se sustituyen por el y lag, s, 1.e.
v = y 2: Y ¡FU (1.8) i = 1
Un modelo alternativo para los datos de series de tiempo se sugirió por Slutsk y
(1927) en su discusión de los peligros en “suavizado” tales datos utilizando el
promedio ponderado. Demostró que por promedio ponderado de una u proceso de
ruido blanco, se puede producir una serie de datos con periodicidades. Por lo tanto,
alguien en busca de un comportamiento eyclic puede ser engañado fácilmente cuando
se han suavizado las series de datos. Su análisis dio lugar a la otra familia importante
de los modelos de series de tiempo, posteriormente llamado el modelo de media móvil
(MA (p)):
Pp y, = Y bM, -¡ 0. (1.9) E
1 10 Una vista preliminar
Wold (1938) sentó las bases para el modelado de series temporales por relatins los
modelos anteriores a la teoría matemática de la probabilidad establecido por
Kolmogorov (1933). Estos avances en la modelización de series temporales iban a
tener sólo un efecto marginal sobre la modelización econométrica corriente hasta
mediados de los años 70, cuando comenzó una convergencia lenta pero segura de las
dos metodologías. Uno de los principales objetivos de este libro es para completar
esta convergencia en el contexto de una metodología reformulada.
Con los desarrollos anteriores de la teoría de la probabilidad y la inferencia estadística
en mente, consideremos la historia de la creación de modelos econométricos a
principios del siglo XX. La revolución marginalista de la década de 1870, con Walras y
Jevons los protagonistas, comenzó a echar raíces y con ella un cambio hacia ofattitude
técnicas matemáticas y estadísticas y su papel en el estudio de la economía. En la
economía clásica observaron los datos se utilizaron principalmente para “establecer'
las tendencias en apoyo de los argumentos teóricos o como‘hechos’que ser explicado.
La matematización de la teoría económica provocada por la revolución marginalista
contribuyó a un intento con propósito de cuantificar relaciones teóricas utilizando
datos observados.
La literatura temprana en modelos econométricos concentra principalmente en dos
áreas generales, los ciclos económicos y las curvas de demanda (véase Stigler (1954)).
Esto puede explicarse por la disponibilidad de los datos y la influencia thg de la
revolución marginalista. El análisis estadístico de los ciclos de negocios tomó la forma
de aplicación de correlación como una herramienta para separar los movimientos
seculares a largo plazo, movimientos periódicos y oscilaciones de corto plazo (véase
Hooker (1905), Moore (1914) entre otras cosas). Los estudios empíricos en teoría de
la demanda concentran sobre todo en la estimación de las curvas de demanda
utilizando el modelo lineal Gauss disfrazado de análisis de regresión. La estimación de
tales curvas se trató como “apropiado con cualquier argumentos probabilísticos ser
coincidencia curva. Numerosos estudios empíricos de las curvas de demanda, sobre
todo de productos agrícolas, fueron publicadas durante el período 1910-1930 (véase
Stigler (1954), Morgan (1982), Hendry y Morgan (1986)), que busca establecer una
base empírica para la ley de la demanda”. Estos estudios pretenden para estimar las
curvas de demanda de forma sencilla
q = 4, + 41P ,, (1.10)
donde q; se refiere a las cantidades demandadas en el momento £ (intenciones por
parte de los agentes económicos para comprar una cantidad determinada de un
producto básico) que corresponde a una gama de precios hipotética p, Al adoptar el
modelo lineal de Gauss estos estudios trataron de “aproximada'(10) por encaje la
línea de “mejor” a través del diagrama de dispersión de (q ,, p,), t = 1, 2, .... T donde d,
normalmente se conoce 1.1 Una breve visión histórica 11
cantidades intercambiados (o producidas) y los precios correspondientes p, al tiempo
t. Es decir, se estimarían
G = b, + BIP. t = 1,2, ..., T. (110)
usando mínimos cuadrados o algún otro método de interpolación e interpretar los
coeficientes estimados por y b, como estimaciones de los parámetros ay teórica y una,
respectivamente, si los signos y los valores fueron consistentes con la ley de la
demanda”. Este enfoque de modelo simplista, sin embargo, tuvo dificultades
inmediatamente. Moore (1914) estimado (11) a partir de datos sobre la producción
de lingotes de hierro (acero bruto) y el precio y “descubierto” por lo que pensó) una
tabla de demanda de pendiente positiva (5,> 0). Este resultado atrajo una
considerable críticas por parte de los especialistas en econometría aplicada de la
época tales como Lehfeldt y Wright (véase Stigler (1962)) y planteó la cuestión más
importante en la creación de modelos econométricos; la conexión entre las ecuaciones
estimadas a partir de datos observados y las relaciones teóricas postuladas por la
teoría económica. Lehfeldt (1915), al comentar sobre Moore s “descubrimiento”,
argumentó que la ecuación estimada no era una exigencia, sino una curva de oferta.
Varios económetras aplicadas argumentaron que la ecuación estimada de Moore era
una mezcla de oferta y demanda. Otros, teniendo una visión más extrema, plantearon
la cuestión de si las ecuaciones estimadas representan artefactos estadísticos o
genuinos de demanda u oferta curvas empíricas. Podría sorprender al lector a
aprender que el mismo problema sigue sin resolverse hasta nuestros días. Varias
soluciones”se han sugerido desde entonces, pero ha surgido ninguna respuesta
satisfactoria. planteado la cuestión de si las ecuaciones estimadas representan
artefactos estadísticos o genuinos de demanda u oferta curvas empíricas. Podría
sorprender al lector a aprender que el mismo problema sigue sin resolverse hasta
nuestros días. Varias soluciones”se han sugerido desde entonces, pero ha surgido
ninguna respuesta satisfactoria. planteado la cuestión de si las ecuaciones estimadas
representan artefactos estadísticos o genuinos de demanda u oferta curvas empíricas.
Podría sorprender al lector a aprender que el mismo problema sigue sin resolverse
hasta nuestros días. Varias soluciones”se han sugerido desde entonces, pero ha
surgido ninguna respuesta satisfactoria.
Durante las próximas dos décadas (1910-30) los econometristas aplicadas luchaban
con el problema y propusieron varias maneras ingeniosas para "resolver” algunos de
los problemas que plantea la cuestión estimaron frente relaciones teórica. Sus
intentos fueron dirigidas principalmente hacia especificar más “realista' modelos
teóricos y tratar de eliminar los datos observados de información irrelevante”. Por
ejemplo, el escenario que la demanda curvas de oferta y cambiantes a la vez que nos
permite observar sólo sus puntos de intersección recibieron una atención
considerable (véase el Trabajo (1927), entre otros). el tiempo de dimensión de los
datos de series de tiempo resultó ser particularmente difícil de “resolver” dado que el
modelo teórico era comúnmente estática. Por lo tanto “eliminar la tendencia de los
datos fue una manera popular de“purificar'los datos observados con el fin de
acercarlos a los conceptos teóricos que pretenden medir (véase Morgan (1982) Como
se ha argumentado por debajo del estimado-teórico:. dicion ralses numerosos
problemas que, dado el estado del arte en cuanto a la inferencia estadística está
preocupado , no podría haber sido resuelto en cualquier
de manera satisfactoria. En la terminología moderna estos problemas se pueden
resumir en los siguientes epígrafes: variables teóricas y en función de los datos
observados; 12 Una vista preliminar
(11) estadística especificación del modelo:

(12) pruebas de especificación errónea estadística;

(1v) pruebas de especificación, reparametrisation, identificación; (V) empírica frente


a los modelos teóricos.
A finales de la década de 1920 hubo una profunda necesidad de realizar un esfuerzo
más organizado para hacer frente a los problemas planteados por la temprana
económetras aplica como Moore, Mitchell, Schultz, Clark, de Trabajo. Wallace, Wright,
entre otras cosas. Esto condujo a la creación de la Sociedad Econométrica en 1930.
Frisch, Tinbergen y Fisher (Irving) inició el establecimiento de “una sociedad
internacional” para el avance de la teoría económica en su relación con las estadísticas
y matemáticas. La década inmediatamente después de la creación de la Sociedad
Econométrica puede caracterizarse como el período durante el cual se establecieron
principalmente los cimientos de la econometría moderna planteando algunas
preguntas importantes y perspicaces.
Un intento importante para resolver algunos de los problemas que plantea la
distinción teórica estimada fue hecha por Frisch (1928) (1934). Discusión de la Gauss
modelo lineal punto de vista Frisch sugirió la denominada formulación de errores en
las variables en las que las relaciones teóricas definidas
en términos de variables teóricas 4, = 11t ,, ...., 1a,) “se definen por el sistema de
ecuaciones lineales k:
A'1, = 0, (1.12) y los datos observados y, = (y ,,, .... y¡,) están relacionados a una, a
través de
Y, = Mi TE, (1.13)
donde e, son errores de medición. Esta formulación hace hincapié en la distinción
entre variables teóricas y los datos observados con las ecuaciones de medición (13)
relativas a los dos. El problema, como se ve por Frisch fue uno de aproximación
(interpolación) en el contexto de álgebra lineal en la misma forma que el modelo lineal
Gauss fue visto. Frisch, sin embargo, con su análisis confluencia ofreció ninguna
solución adecuada al problema. Se proporcionó una solución completa para el caso
más simple sólo recientemente, 50 años después, por Kalman (1982). Es justo decir
que a pesar de Frisch entiende los problemas que plantea la distinción teórica
empírica como atestigua la siguiente cita, su formulación del problema resultó ser
bastante éxito en este sentido. Al comentar sobre Tinbergen's'A prueba estadística de
las teorías del ciclo económico”,
La cuestión de qué relación existe entre las relaciones de los que trabajamos en la
teoría y los obtenemos mediante el ajuste de curvas a los datos estadísticos real es
muy delicada. Tinbergen en su trabajo apenas lo menciona. Él más o menos da por
sentado que las relaciones que ha encontrado son en su naturaleza 1.1 Una breve
reseña histórica 13
lo mismo que la teoría ... Este es, en mi opinión. insatisfactorio. En una obra de este
tipo, la conexión entre las relaciones estadísticos y teóricos se debe entender a fondo y
la naturaleza de la información que proporcionan las relaciones estadísticas - aunque
no son idénticas a las relaciones teóricas - debe estar claramente sacó.
(Sce Frisch (1938), pp. 2-3.)
Como se mencionó anteriormente, a finales de los años 1930 el paradigma Fisher de la
inferencia estadística se formuló en un cuerpo coherente de conocimientos con una
base firme en teoría de la probabilidad. El primer intento importante introducir este
paradigma en la econometría fue hecha por Koopmans (1937). Se propuso un reajuste
del de Frisch formulación de errores en las variables en el contexto del paradigma de
Fisher y relaciona el método de mínimos cuadrados a la de máxima verosimilitud, con
el argumento de que este último paradigma nos proporciona información adicional
acerca de la naturaleza del problema planteado y su (estimación) “solución”. Siete
años más tarde Haavelmo (un estudiante de Frisch) publicó su célebre monografía
sobre “El enfoque de la probabilidad en la econometría (ver Haavelmo (1944), donde
argumentó que el enfoque de probabilidad (el paradigma de Fisher) fue el enfoque
más prometedor para la modelización econométrica (véase Morgan (1984)). Su
argumento en pocas palabras era que si la inferencia estadística (estimación, pruebas
y predicción) se van a utilizar sistemáticamente tenemos que aceptar el marco en el
contexto de lo que estos resultados estén disponibles. Esto implica la formulación de
propuestas teóricas en el contexto de un modelo estadístico bien definido. En la
misma monografía Haavelmo ejemplifica un conocimiento metodológico muy por
delante de su tiempo. En relación con la discusión anterior de la adecuación del
modelo lineal Gauss en el modelado de los fenómenos económicos se distinguió entre
los datos observados resultantes de: prueba y predicción) se van a utilizar
sistemáticamente tenemos que aceptar el marco en el contexto de lo que estos
resultados estén disponibles. Esto implica la formulación de propuestas teóricas en el
contexto de un modelo estadístico bien definido. En la misma monografía Haavelmo
ejemplifica un conocimiento metodológico muy por delante de su tiempo. En relación
con la discusión anterior de la adecuación del modelo lineal Gauss en el modelado de
los fenómenos económicos se distinguió entre los datos observados resultantes de:
prueba y predicción) se van a utilizar sistemáticamente tenemos que aceptar el marco
en el contexto de lo que estos resultados estén disponibles. Esto implica la
formulación de propuestas teóricas en el contexto de un modelo estadístico bien
definido. En la misma monografía Haavelmo ejemplifica un conocimiento
metodológico muy por delante de su tiempo. En relación con la discusión anterior de
la adecuación del modelo lineal Gauss en el modelado de los fenómenos económicos
se distinguió entre los datos observados resultantes de:
(1) experimentos que nos gustaría hacer para ver si ciertos fenómenos económicos
reales - cuando se aísla artificialmente a partir de "otros factores” - sería verificar
ciertas hipótesis, y

(2) la corriente de experimentos que la Naturaleza se está convirtiendo


progresivamente hacia fuera de su propia enorme laboratorio, y el que
simplemente observamos como observadores pasivos

Él continuó diciendo:
En el primer caso podemos hacer que el acuerdo o desacuerdo entre la teoría y los
hechos dependerá de dos cosas: los hechos que elegimos para tener en cuenta, así
como nuestra teoría acerca de ellos ... En el segundo caso, sólo podemos tratar de
ajustar nuestras teorías para la realidad tal como aparece ante nosotros. ¿Y cuál es el
significado de un diseño de experimentos en este caso? Es la siguiente: Tratamos de
elegir una teoría y un diseño de experimentos para ir con ella. de tal manera que el 14
Una vista preliminar
los datos resultantes serían las que obtenemos mediante la observación pasiva o: la
realidad. Y en la medida en que tenemos éxito al hacerlo, nos volvemos maestro 0: la
realidad - por acuerdo pasiva.
Ahora bien, si examinamos las teorías económicas actuales, vemos que una gran parte
o! ellos, en particular los más profundos, requieren experimentos del primer tipo
mencionado anteriormente. Por otro lado, el tipo de datos económicos que tenemos
realmente pertenecen en su mayoría al segundo tipo.
(Ver Haavelmo (1944).
Por desgracia para la econometría, las opiniones de Haavelmo sobre la metodología de
modelización econométrica tenían mucha menor influencia que su formulación OFA
modelo estadístico pensado para ser hecho a medida para la econometría; el llamado
modelo de ecuaciones simultáneas.
En un intento de captar la interdependencia de las relaciones económicas Haavelmo
(1943) propuso una alternativa a la formulación de errores en las variables de de
Frisch, donde no se hace distinción entre las variables teóricas y los datos observados.
La formulación de ecuaciones simultáneas fue especificado por el sistema de
Dy, + A x, + e, = 0, (1.14)
donde Y, se refiere a las variables cuyo comportamiento este sistema pretende
explicar (endógeno) y x, a la explicativo (extraños) variables cuyo comportamiento se
encuentra fuera del alcance previsto de la teoría subyacente (14) y e, 1s el término de
error (ver capítulo 25). El análisis estadístico de (14) proporciona el programa para
un grupo de estadísticos distinguidos y económetras assembied en Chicago en 1945.
Este grupo conocido como la Fundación Grupo Cowles, introducido las técnicas
recientemente desarrolladas de estimación (probabilidad máxima) y pruebas en
econometría a través de la modelo de ecuaciones simultáneas. Sus resultados,
publicados en dos monografías (ver Koopmans (1950) y Hood y Koopmans (1953))
eran para proporcionar la agenda principal de la investigación en econometría para
los próximos 25 años.
Es importante señalar que a pesar de las intenciones declaradas de Haavelmo en su
discusión de la metodología de modelización econométrica (véase Haavelmo (1944)),
el modelo de ecuaciones simultáneas fue más tarde se ve en el modelo lineal tradición
Gauss donde se supone que la teoría para dar cuenta de toda la información en los
datos, aparte de algunos errores no sistemáticos (ruido blanco). De hecho, la
investigación en la teoría econométrica para los próximos 25-30 años estaba
dominado por el modelo de Gauss lineal y su análisis especificación errónea y el
modelo de ecuaciones simultáneas y su identificación y estimación. El optimismo
inicial sobre el potencial del modelo de ecuaciones simultáneas y su adecuación para
la creación de modelos econométricos no se cumplió. Los problemas relacionados con
el tema de la estimaron frente
AA 12 Un bosquejo de una metodología 15
relaciones teóricas mencionadas anteriormente fueron ignoradas en gran parte
debido a este optimismo inicial. A fines de 1970 la experiencia con grandes modelos
macroeconómicos basados en la formulación de ecuaciones simultáneas en tela de
juicio todo el enfoque de modelización econométrica (véase Sims (1980), Malinvaud
(1982), entre otros).
La incapacidad de los modelos grandes macroeconométricos para competir con
modelos Box- Jenkins ARIMA, que no tienen contenido de la teoría económica, por
motivos de predicción (véase Cooper (1972)) renovado el interés de económetras a la
cuestión de theor y estática frente a los datos de series de tiempo dinámico elevado en
los años 1920 y 30. Granger y Newbold (1974) cuestionaron el enfoque econométrico
convencional del prestando poca atención a las características de series temporales de
datos económicos; el resultado de especificar modelos estadísticos utilizando sólo la
información proporcionada por la teoría económica. A fines de 1970 1t estaba claro
que el modelo de ecuaciones simultáneas, aunque muy útil, no era una panacea para
todos los problemas de modelización econométrica. La metodología econométrica
toda necesaria una reconsideración a la vista de la experiencia de las tres décadas
desde la Fundación Cowles.
El propósito de la siguiente sección es considerar un esquema de un enfoque
particular de la creación de modelos econométricos que tenga en cuenta algunos de
los problemas planteados anteriormente. lt es sólo un esbozo porque a fin de formular
la metodología en detalle tenemos que utilizar conceptos y resultados que se
desarrollan en el resto del libro. En particular una característica importante de la
metodología propuesta es la refundición de los modelos estadísticos de interés en
econometría en el molde fisheriana donde los supuestos probabilísticos se hacen
directamente en términos de las variables aleatorias observables que dan lugar a los
datos observados y no un término de error no observable. Los conceptos e ideas que
participan en esta refundición se desarrollan en las partes II-IV. Por lo tanto, una
discusión más detallada de la metodología propuesta se da en el epílogo.
1.2 Modelización Econométrica - un boceto de una metodología
Con el fin de motivar a la metodología de modelización econométrica adoptamos a
continuación vamos a considerar una visión simplista de una metodología común
propuesto como se da en la Fig. 1.1 (por diagramas similares para ver Intriligator
(1978), Koutsoyiannis (1977), entre otros). Con el fin de explicar el procedimiento
representado por el diagrama consideremos una relación teórica ampliamente
investigado, la demanda de dinero para transacciones.
Hay una proliferación de las teorías relacionadas con la demanda de dinero que están
más allá del alcance de la presente discusión (para un estudio véase Fisher (1978)).
Para nuestros propósitos es suficiente considerar una teoría simple donde la demanda
de dinero para transacciones depende de los ingresos, el nivel de precios y 16 Una
vista preliminar
Predicción
Teórico estimación econométrica (predicción) pruebas de modelo modelo
La inferencia estadística evaluación de políticas
Fig. 1.1. El enfoque de “libro de texto' a la modelización econométrica.
Teoría H-?
tasa de interés, 1.e. MP = f (Y. P, I. (1.15)
La mayoría de las teorías de la demanda de dinero pueden ser alojados en alguna
variación de (15) mediante la asignación de diferentes interpretaciones a Y. El modelo
teórico es una formulación matemática de una teoría. En el presente caso expresamos
la teoría directamente en forma funcional (15) en un intento de mantener la discusión
a un mínimo. Deje que el modelo teórico sea una forma funcional explícita para (15),
dicen
MP = AY Pejo (1.16) o en MP = 2, + 2%, en Y 9, ln P + x23In 1 (1.17)
en forma log-lineal con x¿ = 1n siendo A una constante.
El siguiente paso en el esquema metodológico representado por la Fig. 1.1 es
transformar el modelo teórico (17) en un modelo econométrico. Esto se logra
comúnmente en una secuencia de pasos interrelacionados que rara vez se indica
explícitamente. En primer lugar, ciertas series de datos, asumido para representar
mediciones de las variables teóricas involucradas, se eligen. En segundo lugar, las
variables teóricas se asumen para coincidir con las variables que dan lugar a los datos
observados elegidos. Esto nos permite volver a especificar (17) en función de estas
variables observables, por ejemplo, M ,, Y ,, P, y yo ;:
En M, = 2, + 4% en Y 2, En P, 01, Tet. (1,18)
El último paso es convertir (18) en un modelo econométrico (estadístico) adjuntando
un término de error u, que comúnmente se supone que es una variable aleatoria
distribuida normalmente de la forma
u, = N (0,02), Tet. (1,19)
Este término de error se asume para incluir cualquiera de los errores de medición o /
y 1,2 Un bosquejo de una metodología 17
los efectos de las variables excluidas. La adición de este término de error en (18) los
rendimientos
M = 2% 2, + 2% 7p 9 ¿HU tel, (1.20) donde las letras minúsculas representan el
logaritmo de las letras mayúsculas correspondientes. La ecuación (20) se considera
actualmente como un modelo lineal de Gauss con las técnicas de estimación, pruebas y
predicción relacionados con esto en nuestra televisión eliminación analizar “la
demanda de dinero para transacciones”.
Los próximos 1s etapa para estimar 0) utilizando los resultados estadísticos
relacionados con el modelo lineal Gauss y probar las hipótesis postuladas para el
término de error. Si cualquiera de los supuestos no son válidos corregimos por
respecifying el término de error y luego se procede a probar las restricciones a priori
sugeridas por la teoría, tales como, x, = 1, x, = 1, -1] proceso (DGP) H- >] teóricas datos
observados modelo
TT O AO AOOOOOA 1 ll |
; modelo estimable modelo estadístico | | estimación | '¡Mala especificación 1
Reparametrisation! | Modelo de selección de E | l | | | I | | modelo econométrico
empírico | | predicción, evaluación de la política | | l Ls ee A e, e te, pr J
Modelo teórico: una formulación matemática de la teoría.
datos observados: las observaciones de las variables seleccionadas (por una teoría).
modelo Estimable: una forma particular del modelo teórico que es potencialmente
estimable en vista de la DGP real y los datos observados elegidos.
modelo estadístico: una formulación probabilística que tienen por objeto
proporcionar una descripción generalizada de la DGP real con el fin de analizar el
modelo estimable en su contexto 1TS.
Empirical modelo econométrico: una reformulación (reparametrisation / restricción)
de un modelo estadístico estimado bien definido en vista del modelo estimable que
puede ser utilizado para la descripción. explicación o / y la predicción. 22 Una vista
preliminar 1.3 De cara al futuro
Como el título de los libros ejemplifica. su objetivo principal es los fundamentos
estadísticos de modelización econométrica. En relación a la Fig. 1.2 el libro se
concentra principalmente en la parte dentro del rectángulo punteado. La
especificación de un modelo estadístico en términos de las variables que dan lugar a
los datos observados, así como los resultados de inferencia estadística relacionada
será la materia objeto de las partes 1 y MI. En la Parte IV diversos modelos
estadísticos de interés de la modelización econométrica y los resultados relacionados
con la inferencia estadística se considerarán im cierto detalle. Se prestará especial
atención al procedimiento de la especificación del modelo estadístico para el “diseño”
del modelo econométrico emprirical. La demanda transacciones por ejemplo dinero
considerado anteriormente será utilizado a lo largo de la parte IV en un intento de
ilustrar los peligros
Las partes II y HI forman una parte integral de la modelización econométrica y no
deben ser vistos como proporcionar un resumen de los conceptos y definiciones para
ser utilizado en la Parte IV. Un sonido de fondo en la teoría de la probabilidad y la
inferencia estadística 1s cruciales para la aplicación del enfoque adoptado en el
presente libro. Esto es principalmente porque se requiere que el modelista para
especificar el modelo estadístico “adecuada” teniendo en cuenta la naturaleza de los
datos en la mano, así como el modelo estimable. Esto implica la toma de decisiones
acerca de las características de las variables aleatorias que dieron lugar a los datos
observados elegidos como la normalidad. independencia, la estacionalidad, la mezcla,
antes de que cualquier estimación se intentó siquiera. Esta es una de las decisiones
más cruciales en el contexto de la modelización econométrica porque una elección
inapropiada del modelo estadístico hace que las conclusiones correspondientes de
inferencia estadística válida. Por lo tanto, se aconseja al lector para ver las partes I y
ITL como una parte integral de la modelización econométrica y no como apéndices de
referencia. En la Parte IV se recomienda al lector a ver modelos econométricos como
la actividad de una persona pensar y no como una secuencia de recetas técnica. El
capítulo 2 proporciona una breve introducción al paradigma Pearson en un intento
para motivar el paradigma Fisher, que es la materia objeto de piezas Il y III. En la Parte
IV se recomienda al lector a ver modelos econométricos como la actividad de una
persona pensar y no como una secuencia de recetas técnica. El capítulo 2 proporciona
una breve introducción al paradigma Pearson en un intento para motivar el
paradigma Fisher, que es la materia objeto de piezas Il y III. En la Parte IV se
recomienda al lector a ver modelos econométricos como la actividad de una persona
pensar y no como una secuencia de recetas técnica. El capítulo 2 proporciona una
breve introducción al paradigma Pearson en un intento para motivar el paradigma
Fisher, que es la materia objeto de piezas Il y III.
referencias adicionales
David (1962); Harter (1974-1976), McAleer et al. (1985); Spanos (1985).

Você também pode gostar