Hay algunas diferencias terminológicas en las que la misma cosa recibe nombres diferentes en distintas disciplinas:
- Los datos longitudinales en bioestadística son observaciones repetidas de los mismos individuos = datos de panel en econometría.
- El modelo para una variable dependiente binaria en la que la probabilidad de 1 se modela como $1/(1+\exp[-x'\beta])$ se denomina modelo logit en econometría y modelo logístico en bioestadística. Los bioestadísticos suelen trabajar con la regresión logística en términos de odds ratios, ya que su $x$ Los resultados son a menudo binarios, por lo que los odds ratios representan las frecuencias relativas del resultado de interés en los dos grupos de la población. Esta es una interpretación tan común que a menudo verá una variable continua transformada en dos categorías (presión arterial baja frente a alta) para facilitar esta interpretación.
- Las "ecuaciones de estimación" de los estadísticos son las "condiciones de momento" de los econometristas. Las "ecuaciones de estimación" de los estadísticos son las "condiciones de momento" de los econometristas. $M$ -son los estimadores extremos de los econometristas.
Hay diferencias terminológicas en las que el mismo término se utiliza para significar cosas diferentes en distintas disciplinas:
- Los efectos fijos representan la $x'\beta$ en la ecuación de regresión para los estadísticos de ANOVA, y para un estimador "interno" en modelos de datos longitudinales/de panel para los econometristas. (Los efectos aleatorios están malditos para los econometristas, para bien).
- La inferencia robusta significa errores estándar corregidos por heterocedasticidad para los economistas (con extensiones a errores estándar agrupados y/o errores estándar corregidos por autocorrelación) y métodos robustos a los valores atípicos lejanos para los estadísticos.
- Parece que los economistas tienen la ridícula idea de que las muestras estratificadas son aquellas en las que las probabilidades de selección varían entre las observaciones. Deberían llamarse muestras de probabilidad desigual. Las muestras estratificadas son aquellas en las que la población se divide en grupos predefinidos según características conocidas antes de se realiza el muestreo.
- La "minería de datos" de los econometristas (al menos en la literatura de los años 80) solía significar pruebas múltiples y escollos relacionados con ella que han sido maravillosamente explicados en El libro de Harrell . Los procedimientos de minería de datos de los informáticos (y de los estadísticos) son métodos no paramétricos para encontrar patrones en los datos, también conocidos como aprendizaje estadístico .
- El estimador de Horvitz-Thompson es un estimador no paramétrico de una población total finita en estadística de muestreo que se basa en probabilidades fijas de selección, con una varianza determinada por las probabilidades de selección de segundo orden. En econometría, ha crecido para denotar los estimadores de ponderación de propensión inversa que se basan en una lista moderadamente larga de los supuestos de inferencia causal estándar (independencia condicional, SUTVA, superposición, todo eso que hace que los contrafactuales de Rubin funcionen). Sí, hay algún tipo de probabilidad en el denominador en ambos, pero entender el estimador en un contexto te da cero capacidad para entender el otro contexto.
Considero que las contribuciones únicas de la econometría son
- Formas de tratar la endogeneidad y los modelos de regresión mal especificados, reconociendo, como ha explicado mpiktas en otra respuesta En el caso de los modelos de regresión estándar, los autores señalan que: (i) las variables explicativas pueden ser aleatorias (y, por tanto, estar correlacionadas con los errores de regresión, lo que produce un sesgo en las estimaciones de los parámetros), (ii) los modelos pueden adolecer de variables omitidas (que pasan a formar parte del término de error), (iii) puede haber una heterogeneidad no observada en la forma en que los agentes económicos reaccionan a los estímulos, lo que complica los modelos de regresión estándar. Angrist & Pischke es una magnífica revisión de estos temas, y los estadísticos aprenderán mucho sobre cómo hacer análisis de regresión gracias a él. Como mínimo, los estadísticos deberían aprender y comprender la regresión de variables instrumentales.
- En general, los economistas quieren hacer el menor número posible de suposiciones sobre sus modelos, para asegurarse de que sus conclusiones no dependen de algo tan ridículo como la normalidad multivariante. Por eso, el MMG y la verosimilitud empírica son muy populares entre los economistas, y nunca se han puesto al día en estadística (el MMG se describió por primera vez como mínimo $\chi^2$ por Ferguson, y la probabilidad empírica, por Jon Rao, ambos famosos estadísticos, a finales de los años 60). Por eso, los economistas realizan sus regresiones con errores estándar "robustos", y los estadísticos, con el método OLS por defecto $s^2 (X'X)^{-1}$ errores estándar.
- Se ha trabajado mucho en el dominio del tiempo con procesos regularmente espaciados, así es como se recogen los datos macroeconómicos. Las contribuciones únicas incluyen procesos integrados y cointegrados y métodos de heteroskedasticidad condicional autorregresiva ((G)ARCH ). Al ser generalmente una persona micro, estoy menos familiarizado con estos.
En general, los economistas tienden a buscar una interpretación fuerte de los coeficientes en sus modelos. Los estadísticos tomarían un modelo logístico como una forma de llegar a la probabilidad del resultado positivo, a menudo como un simple dispositivo de predicción, y también pueden notar la interpretación del MLG con las bonitas propiedades de la familia exponencial que posee, así como las conexiones con el análisis discriminante. Los economistas pensarían en la interpretación de la utilidad del modelo logit, y se preocuparían de que sólo $\beta/\sigma$ se identifica en este modelo, y que la heteroscedasticidad puede desviarlo. (Los estadísticos se preguntarán qué $\sigma$ son los economistas los que hablan, por supuesto). Por supuesto, una utilidad que es lineal en sus insumos es una cosa muy divertida desde la perspectiva de Microeconomía 101, aunque algunas generalizaciones a funciones semicóncavas probablemente se hagan en Mas-Collel.
Lo que los economistas generalmente tienden a pasar por alto, pero, en mi opinión, se beneficiarían de ello, son los aspectos del análisis multivariante (incluidos los modelos de variables latentes como forma de tratar los errores de medición y los proxies múltiples... los estadísticos son ajenos a estos modelos, sin embargo, también), los diagnósticos de regresión (todas estas distancias de Cook, Mallows $C_p$ ), el análisis de los datos que faltan (la identificación parcial de Manski es sin duda elegante, pero el desglose MCAR/MAR/NMAR de la corriente principal y la imputación múltiple son más útiles) y las estadísticas de encuestas. Muchas otras aportaciones de la corriente principal de la estadística han sido tenidas en cuenta por la econometría y adoptadas como metodología estándar, o pasadas por alto como una moda a corto plazo: Los modelos ARMA de la década de 1960 son probablemente más conocidos en la econometría que en la estadística, ya que algunos programas de posgrado en estadística pueden no ofrecer un curso de series temporales en la actualidad; los estimadores de contracción/regresión de puente de la década de 1970 han llegado y se han ido; el bootstrap de la década de 1980 es una reacción instintiva para cualquier situación complicada, aunque los economistas deben ser más conscientes de las limitaciones del bootstrap La probabilidad empírica de la década de 1990 ha visto un mayor desarrollo metodológico por parte de los econometristas teóricos que de los estadísticos teóricos; los métodos bayesianos computacionales de la década de 2000 están siendo considerados en la econometría, pero mi sensación es que son demasiado paramétricos, demasiado basados en el modelo, para ser compatibles con el paradigma de la robustez que he mencionado anteriormente. (EDIT: esa era la opinión en la escena en 2012; en 2020, los modelos bayesianos se han convertido en estándar en la macro empírica donde la gente probablemente se preocupa un poco menos por la robustez, y están haciendo su presencia en la micro empírica, también. Hoy en día son demasiado fáciles de ejecutar como para dejarlos pasar). Si los economistas encontrarán alguna utilidad al aprendizaje estadístico/bioinformática o al material espacio-temporal que está muy de moda en la estadística moderna es una cuestión abierta.