84 votos

¿Cuáles son las principales diferencias filosóficas, metodológicas y terminológicas entre la econometría y otros campos estadísticos?

La econometría se solapa sustancialmente con la estadística tradicional, pero a menudo utiliza su propia jerga sobre diversos temas ("identificación", "exógeno", etc.). Una vez escuché a un profesor de estadística aplicada de otro campo comentar que a menudo la terminología es diferente pero los conceptos son los mismos. Sin embargo, también tiene sus propios métodos y distinciones filosóficas (me viene a la mente el famoso ensayo de Heckman).

¿Qué diferencias terminológicas existen entre la econometría y la estadística convencional, y en qué se diferencian los campos para llegar a ser diferentes en algo más que en la terminología?

114voto

StasK Puntos 19497

Hay algunas diferencias terminológicas en las que la misma cosa recibe nombres diferentes en distintas disciplinas:

  1. Los datos longitudinales en bioestadística son observaciones repetidas de los mismos individuos = datos de panel en econometría.
  2. El modelo para una variable dependiente binaria en la que la probabilidad de 1 se modela como $1/(1+\exp[-x'\beta])$ se denomina modelo logit en econometría y modelo logístico en bioestadística. Los bioestadísticos suelen trabajar con la regresión logística en términos de odds ratios, ya que su $x$ Los resultados son a menudo binarios, por lo que los odds ratios representan las frecuencias relativas del resultado de interés en los dos grupos de la población. Esta es una interpretación tan común que a menudo verá una variable continua transformada en dos categorías (presión arterial baja frente a alta) para facilitar esta interpretación.
  3. Las "ecuaciones de estimación" de los estadísticos son las "condiciones de momento" de los econometristas. Las "ecuaciones de estimación" de los estadísticos son las "condiciones de momento" de los econometristas. $M$ -son los estimadores extremos de los econometristas.

Hay diferencias terminológicas en las que el mismo término se utiliza para significar cosas diferentes en distintas disciplinas:

  1. Los efectos fijos representan la $x'\beta$ en la ecuación de regresión para los estadísticos de ANOVA, y para un estimador "interno" en modelos de datos longitudinales/de panel para los econometristas. (Los efectos aleatorios están malditos para los econometristas, para bien).
  2. La inferencia robusta significa errores estándar corregidos por heterocedasticidad para los economistas (con extensiones a errores estándar agrupados y/o errores estándar corregidos por autocorrelación) y métodos robustos a los valores atípicos lejanos para los estadísticos.
  3. Parece que los economistas tienen la ridícula idea de que las muestras estratificadas son aquellas en las que las probabilidades de selección varían entre las observaciones. Deberían llamarse muestras de probabilidad desigual. Las muestras estratificadas son aquellas en las que la población se divide en grupos predefinidos según características conocidas antes de se realiza el muestreo.
  4. La "minería de datos" de los econometristas (al menos en la literatura de los años 80) solía significar pruebas múltiples y escollos relacionados con ella que han sido maravillosamente explicados en El libro de Harrell . Los procedimientos de minería de datos de los informáticos (y de los estadísticos) son métodos no paramétricos para encontrar patrones en los datos, también conocidos como aprendizaje estadístico .
  5. El estimador de Horvitz-Thompson es un estimador no paramétrico de una población total finita en estadística de muestreo que se basa en probabilidades fijas de selección, con una varianza determinada por las probabilidades de selección de segundo orden. En econometría, ha crecido para denotar los estimadores de ponderación de propensión inversa que se basan en una lista moderadamente larga de los supuestos de inferencia causal estándar (independencia condicional, SUTVA, superposición, todo eso que hace que los contrafactuales de Rubin funcionen). Sí, hay algún tipo de probabilidad en el denominador en ambos, pero entender el estimador en un contexto te da cero capacidad para entender el otro contexto.

Considero que las contribuciones únicas de la econometría son

  1. Formas de tratar la endogeneidad y los modelos de regresión mal especificados, reconociendo, como ha explicado mpiktas en otra respuesta En el caso de los modelos de regresión estándar, los autores señalan que: (i) las variables explicativas pueden ser aleatorias (y, por tanto, estar correlacionadas con los errores de regresión, lo que produce un sesgo en las estimaciones de los parámetros), (ii) los modelos pueden adolecer de variables omitidas (que pasan a formar parte del término de error), (iii) puede haber una heterogeneidad no observada en la forma en que los agentes económicos reaccionan a los estímulos, lo que complica los modelos de regresión estándar. Angrist & Pischke es una magnífica revisión de estos temas, y los estadísticos aprenderán mucho sobre cómo hacer análisis de regresión gracias a él. Como mínimo, los estadísticos deberían aprender y comprender la regresión de variables instrumentales.
  2. En general, los economistas quieren hacer el menor número posible de suposiciones sobre sus modelos, para asegurarse de que sus conclusiones no dependen de algo tan ridículo como la normalidad multivariante. Por eso, el MMG y la verosimilitud empírica son muy populares entre los economistas, y nunca se han puesto al día en estadística (el MMG se describió por primera vez como mínimo $\chi^2$ por Ferguson, y la probabilidad empírica, por Jon Rao, ambos famosos estadísticos, a finales de los años 60). Por eso, los economistas realizan sus regresiones con errores estándar "robustos", y los estadísticos, con el método OLS por defecto $s^2 (X'X)^{-1}$ errores estándar.
  3. Se ha trabajado mucho en el dominio del tiempo con procesos regularmente espaciados, así es como se recogen los datos macroeconómicos. Las contribuciones únicas incluyen procesos integrados y cointegrados y métodos de heteroskedasticidad condicional autorregresiva ((G)ARCH ). Al ser generalmente una persona micro, estoy menos familiarizado con estos.

En general, los economistas tienden a buscar una interpretación fuerte de los coeficientes en sus modelos. Los estadísticos tomarían un modelo logístico como una forma de llegar a la probabilidad del resultado positivo, a menudo como un simple dispositivo de predicción, y también pueden notar la interpretación del MLG con las bonitas propiedades de la familia exponencial que posee, así como las conexiones con el análisis discriminante. Los economistas pensarían en la interpretación de la utilidad del modelo logit, y se preocuparían de que sólo $\beta/\sigma$ se identifica en este modelo, y que la heteroscedasticidad puede desviarlo. (Los estadísticos se preguntarán qué $\sigma$ son los economistas los que hablan, por supuesto). Por supuesto, una utilidad que es lineal en sus insumos es una cosa muy divertida desde la perspectiva de Microeconomía 101, aunque algunas generalizaciones a funciones semicóncavas probablemente se hagan en Mas-Collel.

Lo que los economistas generalmente tienden a pasar por alto, pero, en mi opinión, se beneficiarían de ello, son los aspectos del análisis multivariante (incluidos los modelos de variables latentes como forma de tratar los errores de medición y los proxies múltiples... los estadísticos son ajenos a estos modelos, sin embargo, también), los diagnósticos de regresión (todas estas distancias de Cook, Mallows $C_p$ ), el análisis de los datos que faltan (la identificación parcial de Manski es sin duda elegante, pero el desglose MCAR/MAR/NMAR de la corriente principal y la imputación múltiple son más útiles) y las estadísticas de encuestas. Muchas otras aportaciones de la corriente principal de la estadística han sido tenidas en cuenta por la econometría y adoptadas como metodología estándar, o pasadas por alto como una moda a corto plazo: Los modelos ARMA de la década de 1960 son probablemente más conocidos en la econometría que en la estadística, ya que algunos programas de posgrado en estadística pueden no ofrecer un curso de series temporales en la actualidad; los estimadores de contracción/regresión de puente de la década de 1970 han llegado y se han ido; el bootstrap de la década de 1980 es una reacción instintiva para cualquier situación complicada, aunque los economistas deben ser más conscientes de las limitaciones del bootstrap La probabilidad empírica de la década de 1990 ha visto un mayor desarrollo metodológico por parte de los econometristas teóricos que de los estadísticos teóricos; los métodos bayesianos computacionales de la década de 2000 están siendo considerados en la econometría, pero mi sensación es que son demasiado paramétricos, demasiado basados en el modelo, para ser compatibles con el paradigma de la robustez que he mencionado anteriormente. (EDIT: esa era la opinión en la escena en 2012; en 2020, los modelos bayesianos se han convertido en estándar en la macro empírica donde la gente probablemente se preocupa un poco menos por la robustez, y están haciendo su presencia en la micro empírica, también. Hoy en día son demasiado fáciles de ejecutar como para dejarlos pasar). Si los economistas encontrarán alguna utilidad al aprendizaje estadístico/bioinformática o al material espacio-temporal que está muy de moda en la estadística moderna es una cuestión abierta.

22 votos

+1 Este es un espléndido ejemplo de las grandes respuestas que pueden surgir cuando una pregunta se abre a un diverso comunidad.

2 votos

@whuber, gracias por el comentario. Las divisiones disciplinarias me vuelven loco, francamente.

3 votos

@StasK Excelente respuesta. Sin embargo, un punto rápido. "En general, los economistas tienden a buscar una interpretación fuerte de los coeficientes en sus modelos". Estrictamente hablando, esto es ligeramente erróneo, ya que en el análisis VAR (que es muy popular, de ahí que tu afirmación no deba decirse en términos de "global") el punto central está en la interpretación de las funciones de respuesta al impulso más que en la interpretación de los coeficientes del modelo (a menudo, son demasiado complicados para tratar de interpretarlos).

24voto

Marc-Andre R. Puntos 789

Lo mejor es explicarlo en términos de regresión lineal, ya que es la principal herramienta de la econometría. En la regresión lineal tenemos un modelo:

$$Y=X\beta+\varepsilon$$

La principal diferencia entre otros campos estadísticos y la econometría es que $X$ se trata como fija en otros campos y se trata como variable aleatoria en econometría. El cuidado adicional que hay que tener para ajustar esta diferencia produce una jerga y unos métodos diferentes. En general, se puede decir que todos los métodos utilizados en econometría son los mismos que en otros campos de la estadística, con un ajuste para la aleatoriedad de las variables explicativas. La excepción notable es GMM , que es una herramienta exclusivamente econométrica.

Otra forma de ver la diferencia es que los datos de otros campos estadísticos pueden considerarse como una muestra iid. En econometría, los datos son, en muchos casos, una muestra de un proceso estocástico, del que el iid es sólo un caso especial. De ahí que, de nuevo, la jerga sea diferente.

Saber lo anterior suele ser suficiente para saltar fácilmente de otros campos estadísticos a la econometría. Como normalmente el modelo está dado, no es difícil averiguar qué es qué. En mi opinión, la diferencia de jerga entre el aprendizaje automático y la estadística clásica es mucho mayor que entre la econometría y la estadística clásica.

No obstante, tenga en cuenta que hay términos que tienen un significado enrevesado en estadística sin la econometría. El principal ejemplo son los efectos fijos y aleatorios. Los artículos de la Wikipedia sobre estos términos son un lío, ya que mezclan la econometría con la estadística.

5 votos

"El principal ejemplo son los efectos fijos y aleatorios. Los artículos de la Wikipedia sobre estos términos son un desastre, mezclando la econometría con la estadística." Muy cierto.

11voto

Nick Cox Puntos 22819

He observado que, en comparación con lo que yo llamaría la corriente principal de la ciencia estadística, los econometristas parecen reacios a utilizar gráficos, ya sean esquemáticos o basados en datos. La cobertura de la regresión, que naturalmente es aún más central en la econometría que en otras partes, es un caso importante. Las introducciones modernas a la regresión realizadas por estadísticos hacen hincapié en todo momento en el valor de trazar los datos y los resultados de la regresión, incluidos los gráficos de diagnóstico, mientras que el tratamiento en los textos de econometría es claramente más formal. Los principales textos de econometría no incluyen muchos gráficos y no promueven mucho su valor.

Es difícil analizar esto sin correr el riesgo de parecer poco diplomático o algo peor, pero yo diría que hay una combinación de los siguientes factores.

  1. Deseo de rigor. Los econometristas tienden a ser recelosos u hostiles al aprendizaje a partir de los datos y prefieren firmemente que las decisiones se basen en pruebas formales (siempre que no salgan de un teorema). Esto va unido a una preferencia por que los modelos se basen en la "teoría" (aunque esto puede significar simplemente que un predictor se mencionó anteriormente en un artículo de algún economista que no habla de datos).

  2. Prácticas de publicación. Los artículos para revistas de economía o econometría están repletos de tablas muy estilizadas de coeficientes, errores estándar, estadísticas t y valores P. En muchos casos ni siquiera se piensa en añadir gráficos y, si se ofrecen, los revisores posiblemente los recorten. Estas prácticas se han arraigado a lo largo de una generación o más hasta el punto de que se han convertido en algo automático, con convenciones rígidas sobre los niveles de significación estelares, etc.

  3. Gráficos para modelos complejos. Tácitamente se ignoran los gráficos cuando no parece que haya un gráfico que se ajuste a un modelo complejo con muchos predictores, etc., etc. (lo que de hecho es a menudo difícil de decidir).

Naturalmente, lo que sugiero es una diferencia de medios, por así decirlo, y reconozco mucha variabilidad en ambos casos.

1 votos

+1. Un pequeño comentario sobre el tratamiento de la regresión: algo que he llegado a apreciar es que para la econometría la homocedasticidad es una situación agradable de tener, pero esencialmente el "mundo es heteroscedástico". En Estadística, mi opinión es/era que el "mundo es homocedástico", pero encontramos formas de generalizarlo. Por ejemplo, ni Gelman & Hill Reg. Anal. o el RMS de Harrell no tocan realmente la heteroscedasticidad. Por otro lado, el IE de Wooldridge o el MHE de Angrist y Pischke se refieren a la heteroscedasticidad.

2 votos

De hecho, es así. Pero, como es lógico, la práctica económica suele ir muy por detrás de las mejores ideas actuales. Encuentro mucha obsesión con el término de error y a menudo poca o ninguna reflexión sobre si $y = Xb$ es una buena forma funcional. No me hagas hablar del mito de que la normalidad marginal es necesaria para casi todo.

10voto

d_a_c321 Puntos 474

Una sutil diferencia es que los economistas a veces atribuyen un significado a los términos de error de los modelos. Esto es especialmente cierto entre los economistas "estructurales" que creen que se pueden estimar los parámetros estructurales que representan el interés o la heterogeneidad individual.

Un ejemplo clásico de esto es el probit. Mientras que los estadísticos suelen ser agnósticos sobre las causas del término de error, los economistas suelen considerar que los términos de error en las regresiones representan la heterogeneidad de las preferencias. En el caso del probit, se podría modelar la decisión de una mujer de incorporarse a la población activa. Esto vendrá determinado por una serie de variables, pero el término de error representará un grado no observado en el que las preferencias individuales por el trabajo pueden variar.

4 votos

Aunque los estadísticos pueden ser agnósticos sobre las causas del término de error, eso no significa que no se preocupen por él. Lo que usted describe es la heterogeneidad del término de error, lo que significa que no se cumplen los supuestos habituales sobre los términos de error. Ningún estadístico lo ignorará.

2 votos

Curiosamente, en este caso, no hay problema con la forma del término de error. Tanto los estadísticos como los economistas se pondrán en pie de guerra y se preocuparán por la heterocedasticidad o por cualquier otro término de error no válido. Sin embargo, incluso si el término de error es N(0,1) como en un probit, los economistas son capaces de darle una interpretación económica.

5 votos

Esto se aplica al modelado en general. Interpretar el modelo a tu manera no se limita a los economistas, según mi experiencia.

5voto

Tom Au Puntos 156

A diferencia de la mayoría de las disciplinas cuantitativas, la economía se ocupa de las cosas en el MARGEN. Es decir, la utilidad marginal, la tasa marginal de sustitución, etc. En términos de cálculo, la economía se ocupa de la "primera" (y de las derivadas de orden superior).

Muchas disciplinas estadísticas tratan con cantidades no derivadas, como las medias y las varianzas. Por supuesto, se puede entrar en el ámbito de las distribuciones de probabilidad marginal y condicional, pero algunas de estas aplicaciones también entran en la economía (por ejemplo, el "valor esperado").

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X