107 votos

Estados Unidos los resultados de las Elecciones de 2016: ¿Qué pasó con los modelos de predicción?

Primero fue Brexit, ahora las elecciones en estados unidos. Muchas de las predicciones del modelo se fuera por un amplio margen, y hay lecciones que aprender aquí? Tan tarde como a las 4 pm PST ayer, los mercados de apuestas, se sigue favoreciendo a Hillary 4 a 1.

Supongo que el mercado de apuestas, con dinero real en la línea, debe actuar como un conjunto de todos los modelos de predicción de allí. Así que no es exagerado decir que estos modelos no hacen un muy buen trabajo.

Vi una explicación fue que los votantes no estaban dispuestos a identificarse a sí mismos como el Triunfo de los partidarios. ¿Cómo podría un modelo de incorporar efectos como que?

Una macro explicación que he leído es el surgimiento del populismo. La pregunta entonces es ¿cómo podría un modelo estadístico de captura de una macro tendencia como que?

Son estos los modelos de predicción de fuera no poner demasiado peso en los datos de las encuestas y del sentimiento, no es suficiente, desde donde el país está de pie en un año 100 a la vista? Estoy citando a un amigo en los comentarios.

56voto

Cliff AB Puntos 3213

En resumen, la votación no es siempre fácil. Esta elección puede haber sido el más difícil.

Cualquier tiempo que estamos tratando de hacer inferencia estadística, una pregunta fundamental es si nuestra muestra es una buena representación de la población de interés. Un típico supuesto de que es necesario para muchos tipos de inferencia estadística es el de tener nuestra muestra de ser un completamente al azar de la muestra de la población de interés (y, a menudo, también tenemos muestras de ser independiente). Si estas suposiciones son ciertas, que suelen tener buenas medidas de nuestra incertidumbre basada en la teoría estadística.

Pero nosotros definitivamente ¿ no tienen estos supuestos fiel de las encuestas! Tenemos exactamente 0 muestras de nuestra población de interés: real votos emitidos en el día de la elección. En este caso, se puede realizar cualquier tipo de inferencia válida sin más, incontrastables hipótesis acerca de los datos. O al menos, inestable hasta después del día de la elección.

¿Estamos completamente de rendirse y decir "50%-50%!"? Normalmente, no. Trataremos de hacer lo que creemos que son suposiciones razonables acerca de cómo los votos serán emitidos. Por ejemplo, tal vez nos quiera hacer creer que las encuestas son estimaciones imparciales para el día de las elecciones los votos, además de algunos imparcial de ruido temporal (es decir, la evolución de la opinión pública como pasa el tiempo). Yo no soy un experto en métodos de sondeo, pero creo que este es el tipo de modelo de 538 usos. Y en 2012, funcionó bastante bien. Para aquellos supuestos probablemente eran muy razonables. Lamentablemente, no hay forma real de la evaluación de los supuestos, fuera estrictamente el razonamiento cualitativo. Para más discusión sobre un tema similar, consulte el tema de la No Ignorable missingness.

Mi teoría de por qué las encuestas así lo hizo mal en el 2016: las encuestas fueron no estimaciones imparciales de los votantes el día de comportamiento. Que es, me imagino que el Triunfo de los partidarios (y probablemente Brexit seguidores) eran mucho más desconfiados de los encuestadores. Recuerde que el Señor Trump activamente denunció urnas. Como tal, creo que el Triunfo de los partidarios eran menos propensos a informar de sus intenciones de voto a los electores, de los partidarios de sus oponentes. Me gustaría especular que esto causó un imprevisto pesado sesgo en las encuestas.

Cómo podría analistas han explicado, al utilizar los datos de sondeo? Basado en los datos de sondeo solo, no hay manera real de hacer esto de una manera cuantitativa. Los datos de sondeo, no nos dice nada acerca de aquellos que no participaron. Sin embargo, uno puede ser capaz de mejorar las urnas en una forma cualitativa, mediante la elección más razonable (pero inestable) hipótesis acerca de la relación entre los datos de las encuestas y el día de las elecciones comportamiento. Esto no es trivial y la verdad parte más difícil de ser un buen encuestador (nota: yo no soy un encuestador). También tenga en cuenta que los resultados fueron muy sorprendentes para los entendidos así, así que no había signos evidentes de que los supuestos que fueron salvajemente fuera de este tiempo.

El sondeo puede ser difícil.

36voto

Matt White Puntos 272

Hay un número de fuentes de sondeo de error:

  • Usted encontrará algunas personas difíciles de alcanzar

    Esto se corrige haciendo el análisis demográfico, luego de corregir por su sesgo de muestreo. Si el análisis demográfico no refleja las cosas que hacen las personas de difícil acceso, esta corrección no reparar el daño.

  • Las personas mienten

    Puede utilizar los tipos de cambio históricos en los que la gente mienta a los encuestadores a la influencia de su modelo. Como un ejemplo, históricamente, la gente del estado que van a votar a la 3ª parte de mucho más de lo que realmente hacen en el día de la elección. Las correcciones pueden ser mal aquí.

    Estas mentiras también puede estropear sus otras correcciones; si mienten acerca de la votación en la última elección, que puede ser considerado como un posible votante, incluso si no están, por ejemplo.

  • Sólo la gente que vota a terminar contando

    Alguien puede tener un montón de apoyo, pero si sus seguidores no se muestran en el día de las elecciones, que no cuenta. Esta es la razón por la que hemos de votantes registrados, los probables votantes, etc modelos. Si estos modelos están equivocados, las cosas no funcionan.

  • Sondeo cuesta dinero

    Haciendo encuestas es caro, y si no a esperar que (dicen) de Michigan para voltear no podría encuesta muy a menudo. Esto puede conducir a la sorprendió cuando un estado se indagó a 3 semanas antes de la elección se parece en nada a que el día de la elección.

  • Las personas a cambiar sus mentes

    A lo largo de minutos, horas, días, semanas o meses, las personas a cambiar sus mentes. Encuesta sobre "¿qué te gustaría hacer ahora" no ayuda mucho si cambian sus mentes antes de que se cuenta. Hay modelos que supongo que aproximadamente la velocidad a la que la gente cambia sus mentes se basa histórico de las encuestas.

  • El pastoreo

    Si todos los demás estados que Hillary es +3 y se obtiene una encuesta que mostraba a Hillary +11 o Donald +1, quizá la pregunta. Usted podría hacer otro paso y ver si hay un análisis de falla. Usted puede incluso tirar y hacer otra encuesta. Cuando usted consigue un Hillary +2 o +4 encuesta, usted podría no hacerlo. Masiva de los valores atípicos, incluso si el modelo estadístico dice que ocurre a veces, pueden hacer "quedar mal".

    Particularmente mierda de forma de que esto sucedió en el día de las elecciones, donde todo el mundo la oms publicó una encuesta por arte de magia, convergieron en el mismo valor; que, probablemente, donde los valores atípicos de las encuestas, pero nadie quiere ser el que dijo (decir) Hillary +11 el día antes de esta elección. Ser malo en un rebaño duele menos.

  • Espera un error de muestreo

    Si usted tiene 1 millón de personas y pide a 100 perfectamente a la gente al azar y la mitad de decir "Manzana" y la mitad de decir "Naranja", se espera que el error que te dan de muestreo es de +/- 10 o así, incluso si ninguno de los anteriores problemas se producen. Esta última parte es lo que las encuestas describir como su margen de error. Las encuestas raramente describen lo que los anteriores factores de corrección que podría inducir a error.


Nate Silver en 538 fue uno de los pocos de votación agregadores que utiliza conservador (cauteloso) significa manejar la posibilidad de que los anteriores tipos de errores. Él tenerse en cuenta la posibilidad de la correlación de los errores en la votación de los modelos.

Mientras que otros agregadores se la predicción de un 90%+ posibilidad de HC fue elegido, Nate Silver estaba declarando 70%, debido a que las urnas estaban dentro de lo "normal sondeo error" de Donald victoria.

Este fue un histórico de la medida de error del modelo, frente a la cruda muestreo estadístico error; lo que si el modelo y las correcciones al modelo fueron mal?


La gente todavía está crujiendo los números. Pero, los resultados preliminares indican que una gran parte de ello fue la concurrencia de los modelos. Donald partidarios se presentaron a las urnas en mayor número, y Hillary partidarios en menor número, de la votación de los modelos (y las encuestas de salida!) indicado.

Los latinos votaron más de Donald de lo esperado. Los negros votaron más de Donald de lo esperado. (La mayoría de ambos votado a favor de Hillary). Blanco mujeres votaron más por Donald de lo esperado (más de ellos votaron por Donald de Hillary, que no era el esperado).

La participación electoral fue baja en general. Los demócratas tienden a ganar cuando hay alta participación de los votantes, y los Republicanos cuando hay baja.

31voto

T.E.D. Puntos 361

Esto fue mencionado en los comentarios sobre la aceptada respuesta, pero creo que debe ser enfatizado. 538 hizo en realidad esta bastante bien este ciclo*.

538 es un agregador de votación que se ejecuta en contra de los modelos de cada estado para intentar predecir el ganador. Su ejecución final dio el Triunfo sobre un 30% de probabilidades de ganar. Esto significa que si usted corrió tres elecciones con datos como este, uno esperaría que el Equipo Red para ganar uno de ellos. Que realmente no es que los pequeños de una oportunidad. Es sin duda una lo suficientemente grande como uno que me tomó las precauciones (por ejemplo: El viernes antes de que me pidió el miércoles 9 en el trabajo, considerando la probabilidad de que sea lo suficientemente cerca para ser de noche).

Una cosa 538 le dirá si usted cuelga es que si las encuestas están lejos, hay una buena probabilidad de que todos en la misma dirección. Esto es para un par de razones.

  • Probable que los votantes de los modelos. Las encuestas han de ajustar para los tipos de votantes que van a presentar el día de las elecciones. Tenemos modelos históricos, pero esto, obviamente, no fue el típico par de candidatos, por lo que la predicción basada en los últimos datos siempre va a ser un poco de un crapshoot.
  • A finales de la elección de pastoreo. Nadie quiere ser la encuesta que soplaba de las elecciones, el peor. Así, mientras que a ellos no les importa ser diferente de los demás en el medio de una campaña, al final todas las encuestas de opinión tienden a ajustar a sí mismos por lo que dicen la misma cosa. Esta es una de las cosas que se culpó para los comicios de ser tan infame fuera de Eric Cantor sorpresa de la pérdida en el 2014, y para el sorprendentemente cerca de los resultados del 2014 Virginia Senado de la carrera así.

* - 538 ahora ha publicado su propio análisis. En su mayoría concuerda con lo dicho anteriormente, pero vale la pena leer si quieres muchos más detalles.


Ahora un poco de apreciación personal. En realidad estaba escéptico de 538 final % de posibilidades de que sus últimos 3 días. La razón se remonta a la segunda viñeta de arriba. Echemos un vistazo a la historia de su modelo para esta elección (desde su página web)

enter image description here

(Por desgracia, las etiquetas oscuro, pero después de esto las curvas se separaron de nuevo durante los últimos tres días, a más de un 70% de probabilidades de que Clinton)

El patrón que vemos aquí se repite la divergencia seguido por el deterioro de la espalda hacia un Triunfo de plomo. La Clinton burbujas fueron causadas por eventos. La primera fue la de los convenios (normalmente hay un par de días de retraso después de un evento para que comience a aparecer en la votación). El segundo parece haber sido despedidos por el primer debate, probablemente ayudado por la TMZ cinta. Luego está el tercer punto de inflexión he marcado en la imagen.

Sucedió el 5 de noviembre, 3 días antes de la elección. Qué evento que causó esto? Un par de días antes de que fue otro correo electrónico-flareup, pero que no han trabajado en Clinton favor.

La mejor explicación que se me ocurrió en el momento en que fue sondeo de pastoreo. Fue sólo 3 días hasta las elecciones, 2 días hasta el final de las encuestas y los encuestadores estaría empezando a preocuparse de que sus resultados finales. La "sabiduría convencional" toda esta elección (como se evidencia por las apuestas de los modelos), fue un fácil Clinton ganar. Por lo que parecía una clara posibilidad de que esto no era una verdadera inflexión en absoluto. Si ese fuera el caso, la verdadera curva de 5 de Nov en fue muy probablemente una continuación de ésta hacia la convergencia.

Se necesitaría una mejor matemático que yo para la estimación de la curva forward de aquí sin que este sospechoso punto de inflexión final, pero echando un vistazo creo Nov 8 habría sido cerca del punto de cruce. En frente o detrás depende de cuánto de esa curva era la realidad.

Ahora yo puedo decir con certeza que esto es lo que sucedió. Hay otras explicaciones plausibles (por ejemplo: el Triunfo consiguió sus votantes fuera mucho mejor que cualquier encuestador se esperaba), Pero era mi teoría de lo que estaba pasando en el momento, y que sin duda demostró predictivo.

17voto

Franck Dernoncourt Puntos 2128

Primero fue Brexit, ahora las elecciones en estados unidos

No es realmente un primero, por ejemplo, las elecciones presidenciales francesas de 2002 ", llevó a discusiones serias acerca de técnicas de sondeo".

Así que no es exagerado decir que estos modelos no hacen un muy buen trabajo.

Entra basura, sale basura.

Vi una explicación fue que los votantes no estaban dispuestos a identificarse a sí mismos como Trump partidario. ¿Cómo podría un modelo de incorporar efectos como que?

Ver el sesgo de respuesta, y, en particular, el sesgo de deseabilidad social. Otros interesantes lecturas: la mayoría silenciosa y Bradley efecto.

12voto

Guy Puntos 214

La USC/LA Times encuesta tiene algunos números exactos. Que predijo el Triunfo para estar en la delantera. Véase El USC/L. A. Times encuesta vio lo que otras encuestas perdidas: Una ola de Triunfo de apoyo

http://www.latimes.com/politics/la-na-pol-usc-latimes-poll-20161108-story.html

enter image description here

Habían precisión de los números de 2012.

Es posible que desee revisar: http://graphics.latimes.com/usc-presidential-poll-dashboard/

Y el new york Times se quejó acerca de su ponderación: http://www.nytimes.com/2016/10/13/upshot/how-one-19-year-old-illinois-man-is-distorting-national-polling-averages.html

Los ANGELES Times' respuesta: http://www.latimes.com/politics/la-na-pol-daybreak-poll-questions-20161013-snap-story.html

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X