39 votos

¿Cuáles son los seres humanos de sesgos más comunes hace recolección o interpretación de datos?

Soy una econ/stat principal. Soy consciente de que los economistas han tratado de modificar sus supuestos sobre el comportamiento humano y la racionalidad por la identificación de las situaciones en las que las personas no se comportan de manera racional. Por ejemplo, supongamos que ofrecemos un 100% de probabilidad de un \$1000 loss or a 50% chance at a \$2500 pérdida, la gente elige el \$2500 option even though the expected value of the latter is a greater loss than a \$1000 pérdida garantizada. Esto se conoce como la "aversión a la pérdida". Los economistas del comportamiento ahora el estudio de estos patrones y tratar de identificar las formas en que los humanos se apartan de esos axiomas general se supone que constituyen "racional" de la conducta. Aquí, supongo que es racional preferir al menos la pérdida esperada.

Me preguntaba si los estadísticos se han identificado patrones comunes en la recopilación de datos de rendimiento sesgada de los resultados en cómo las personas interpretan los datos. Si no era esencialmente un "racional" para recopilar datos, supongo que hay ejemplos en los que los seres humanos se apartan de esta y la exhibición de "sesgo". Si es así, ¿cuáles son los sesgos más comunes que hacen los seres humanos cuando la recolección o la interpretación de los datos?

23voto

user977705 Puntos 36

Creo que en el mundo académico, los valores de p son muy comúnmente mal interpretado. La gente tiende a olvidar que el p-valor expresa la probabilidad condicional. Incluso si un experimento ha sido perfectamente realizado y cumpliendo con todos los requisitos de la prueba estadística se cumplen, la tasa de falso descubrimiento es normalmente mucho mayor que el nivel de significación alfa. La tasa de falso descubrimiento aumenta con una disminución en la potencia estadística y la prevalencia de resultados positivos verdaderos (Colquhoun, 2014; Nuzzo, 2014).

Además la gente tiende a considerar que sus estimaciones como la verdad y el parámetro estimado como al azar (Haller & Kraus, 2002). Por ejemplo cuando dicen que en "el 95% de los casos se determinó el intervalo de confianza cubre el parámetro"...

La confusión de la correlación y la causalidad es probablemente también un error muy común en la interpretación de los datos.

En términos de recolección de datos, creo que un error común es tomar el de más fácil acceso, en lugar de las más representativas de la muestra.

Colquhoun, D. (2014). Una investigación de la tasa de falso descubrimiento y la interpretación de los valores P. Royal Society Open Science, 1-15.

Nuzzo, R. (2014). Errores estadísticos: los valores de P, el "estándar de oro" de la validez estadística no son tan confiables como muchos de los científicos suponen. La naturaleza, 506, 150-152.

Haller, H. & Kraus, S. (2002): interpretaciones erróneas de Importancia: Un Problema que los Estudiantes Compartan con Sus Maestros? Métodos de Investigación Psicológica en Línea, Vol.7, Nº 1

19voto

JoanComasFdz Puntos 131

Yo diría que un general de la incapacidad para apreciar lo que es la verdadera aleatoriedad parece. Parece que la gente espera demasiado pocos falsos patrones de los que realmente ocurren en secuencias de eventos al azar. Esto se muestra también cuando tratamos de simular la aleatoriedad en la nuestra.

Otro bastante común es la no comprensión de la independencia, como en la falacia del apostador. A veces pensamos que antes de los eventos que pueden afectar en el futuro, incluso cuando es claramente imposible, al igual que la anterior oferta de una baraja de cartas, afectando a un futuro.

7voto

Mike Miller Puntos 17852

Ya se ha señalado que muchos de los comportamientos y los procesos de pensamiento con la etiqueta "irracional" o "parcial" (comportamiento) de los economistas en realidad son muy adaptables y eficientes en el mundo real. Sin embargo, OP pregunta es muy interesante. Creo, sin embargo, que puede ser rentable para referirse a la más fundamental, el conocimiento descriptivo acerca de nuestros procesos cognitivos, en lugar de ir buscando específico de "sesgos" que corresponden a las descritas en la literatura económica (por ejemplo, la aversión a la pérdida, de la dotación efecto, baserate negligencia, etc.).

Por ejemplo, estudio de viabilidad, es sin duda un problema en el análisis de datos. Estudio de viabilidad de la teoría de los estados que nos sobrepeso información que encontramos fáciles de interpretar o evaluar. Considere el caso de un coeficiente de regresión. Evaluar el "mundo real" las consecuencias de un coeficiente que puede ser un trabajo duro. Hay que considerar que las unidades de la independiente y la variable dependiente, así fue la distribución de nuestros independiente y la variable dependiente para saber si un coeficiente que tiene relevancia en la práctica. La evaluación de la significación de un coeficiente, por otro lado, es fácil: simplemente me compare su p-valor para mi nivel alfa. Dado que la mayor evaluabilidad del p-valor en comparación con el coeficiente de sí mismo, es apenas sorprendente que tanto está de p-valores.

(La estandarización de los aumentos de la evaluabilidad de un coeficiente, pero puede aumentar la ambigüedad: el sentido de que la información relevante esté disponible o retenido, debido a que el "original" formulario de los datos de procesamiento no está disponible para nosotros.)

Un cognitivas relacionadas con el "sesgo" es la concreción principio, la tendencia al sobrepeso de la información que está "allí", en una decisión de contexto, y no requiere la recuperación de la memoria. (La concreción principio también establece que somos propensos a utilizar la información en el formato en el que se imparten, y tienden a evitar la realización de transformaciones). La interpretación de un p-valor puede ser hecho por una simple mirada a los resultados de regresión; no necesita de mí para recuperar los conocimientos sustantivos sobre la cosa de la que estoy modelando.

Espero que muchos de los sesgos en la interpretación de datos estadísticos, se puede remontar a la comprensión general que vamos a tomar el camino fácil a la hora de resolver un problema o de formación de un juicio (ver "cognitivo avaro", "racionalidad limitada", y así sucesivamente). Relatedly, hacer algo "con facilidad" por lo general aumenta la confianza con la que tenemos el resultado de las creencias (la fluidez de la teoría). (También se podría considerar la posibilidad de que los datos que son más fáciles de articular a nosotros mismos o a los demás - se sobreasignación porcentual en nuestro análisis.) Creo que esto se hace especialmente interesante cuando tenemos en cuenta las posibles excepciones. Algunas investigaciones psicológicas sugiere, por ejemplo, que si creemos que un problema debe ser difícil de resolver, entonces podemos favor de enfoques y soluciones que son menos concreto y más difícil, por ejemplo, elegir un más arcano método más simple.

7voto

KevMo Puntos 2606

El mayor factor único que puedo pensar es ampliamente conocido como "sesgo de confirmación". Habiéndose establecido sobre lo que yo pienso de mi estudio, me acríticamente aceptar los datos que conducen a esa conclusión, mientras que haciendo excusas para todos los puntos de datos que parecen refutar. Me pueden rechazar inconscientemente como "instrumento obvio error" (o algún equivalente) cualquiera de los puntos de datos que no se ajustan a mi conclusión. En algunos casos, no será tan flagrante; en lugar de tirar los puntos de datos por completo, voy a inventar una fórmula para eliminar el "error", que será convenientemente orientar los resultados hacia la confirmación de mi predestinado conclusión.

No hay nada particularmente nefasto acerca de esto; es la manera en que funciona el cerebro. Se requiere de una gran cantidad de esfuerzo para filtrar tal sesgo, y es uno de los motivos por los científicos como para inventar un estudio doble ciego, de tal manera que la persona que realiza las mediciones no sabe lo que el experimento se espera que probar. Se requiere de mucha disciplina para no ajustar lo que él fielmente medido.

6voto

usεr11852 Puntos 5514

La linealidad.

Creo que una tendencia común durante la interpretación de los datos/análisis es que generalmente las personas se apresuran a asumir lineal de las relaciones. Matemáticamente, un modelo de regresión supone que sus determinista componente es una función lineal de los indicadores; por desgracia, esto no es siempre cierto. Recientemente fui a un poster de la conferencia y la cantidad de rodeos cuadrática o tendencias no lineales I sierra está equipada con un modelo lineal es preocupante, por decir lo menos.

(Esto es en adición a las menciones de la falacia del apostador, $p$-valor de la mala interpretación y verdadera aleatoriedad; +1 a todos los mensajes relevantes.)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X