57 votos

¿Cuáles son los avances en estadística de los últimos 15 años?

Todavía recuerdo el artículo de Annals of Statistics sobre el Boosting de Friedman-Hastie-Tibshirani, y los comentarios sobre ese mismo tema de otros autores (incluidos Freund y Schapire). En aquella época, el Boosting se consideraba claramente un avance en muchos aspectos: factible desde el punto de vista computacional, un método de conjunto, con un rendimiento excelente y misterioso. Alrededor de la misma época, SVM alcanzó la mayoría de edad, ofreciendo un marco Apoyado en una sólida teoría y con multitud de variantes y aplicaciones.

Eso fue en los maravillosos años 90. En los últimos 15 años, me parece que muchas estadísticas han sido una operación de limpieza y detalle, pero con pocos puntos de vista verdaderamente nuevos.

Así que voy a hacer dos preguntas:

  1. ¿Me he perdido algún documento revolucionario/seminario?
  2. Si no es así, ¿hay nuevos enfoques que cree que tienen el potencial de cambiar el punto de vista de los inferencia estadística?

Reglas:

  1. Una respuesta por puesto;
  2. Se aceptan referencias o enlaces.

P.D.: Tengo un par de candidatos a avances prometedores. Los publicaré más adelante.

42voto

TonyB Puntos 363

La respuesta es tan sencilla que tengo que escribir todo este galimatías para que CV me deje publicarla: R

14voto

Berek Bryan Puntos 349

Como estadístico aplicado y autor ocasional de software menor, diría:

WinBUGS (publicado en 1997)

Se basa en BUGS, que se lanzó hace más de 15 años (1989), pero es WinBUGS el que puso el análisis bayesiano de modelos realistas complejos a disposición de una base de usuarios mucho más amplia. Véase, por ejemplo Lunn, Spiegelhalter, Thomas y Best (2009) (y el debate al respecto en Statistics in Medicine vol. 28 número 25 ).

14voto

patfla Puntos 1

No estoy seguro de si lo llamaría un "avance" per se, pero la publicación de Teoría de la probabilidad: La lógica de la ciencia Por Edwin Jaynes y Larry Bretthorst puede ser digno de mención. Algunas de las cosas que hacen aquí son:

1) mostrar la equivalencia entre algunos esquemas iterativos de "ajuste estacional" y la integración bayesiana de "parámetros molestos".

2) resolvió la llamada "Paradoja de la Marginación", que algunos consideran la "muerte del bayesianismo" y otros la "muerte de los priores impropios".

3) la idea de que la probabilidad describe un estado de conocimiento sobre si una proposición es verdadera o falsa, en lugar de describir una propiedad física del mundo .

Los tres primeros capítulos de este libro están disponibles de forma gratuita aquí .

13voto

Akira Puntos 1061

LARS tiene mi voto. Combina la regresión lineal con la selección de variables. Los algoritmos para calcularla suelen dar una colección de $k$ modelos lineales, el $i$ que tiene coeficientes no nulos sólo para $i$ regresores, por lo que se pueden examinar fácilmente modelos de diferente complejidad.

12voto

patfla Puntos 1

La introducción de la función de pérdida de "discrepancia intrínseca" y otras funciones de pérdida "sin parámetros" en la teoría de la decisión. Tiene muchas otras propiedades "agradables", pero creo que la mejor es la siguiente:

si la mejor estimación de $\theta$ utilizando la función de pérdida de discrepancia intrínseca es $\theta^{e}$ entonces la mejor estimación de cualquier función unívoca de $\theta$ , digamos que $g(\theta)$ es simplemente $g(\theta^{e})$ .

¡Me parece que esto es muy chulo! (por ejemplo, la mejor estimación de las probabilidades logarítmicas es log(p/(1-p)), la mejor estimación de la varianza es el cuadrado de la desviación estándar, etc. etc.)

El problema es que la discrepancia intrínseca puede ser bastante difícil de calcular. (¡implica la función min(), un cociente de probabilidad y las integrales!)

¿La "contrapartida"? ¡puedes "reordenar" el problema para que sea más fácil de calcular!

El "contragolpe" ¡descubrir cómo "reordenar" el problema puede ser difícil!

Aquí hay algunas referencias que conozco que utilizan esta función de pérdida. Aunque me gustan mucho las partes de "estimación intrínseca" de estos documentos/ diapositivas, tengo algunas reservas sobre el enfoque de "referencia previa" que también se describe.

Pruebas de hipótesis bayesianas: un enfoque de referencia

Estimación intrínseca

Comparación de medias normales: Nuevos métodos para un viejo problema

Estimación objetiva bayesiana integrada y prueba de hipótesis

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X