4 votos

¿Qué lenguaje técnico para describir el grado en el que las probabilidades son susceptibles a ser modificados por los datos en el futuro?

Estoy tratando de pensar en algo que yo llamo "la estimación de la estabilidad", y espero que usted me puede decir si hay algo relevante lenguaje técnico, para que yo pueda aprender acerca de él y, a continuación, escribir un tutorial sobre el tema, Menos Mal.

¿Qué quiero decir con "estimación de la estabilidad?" Considere estas tres diferentes propuestas:

  1. Somos el 50% seguro de que una moneda (conocido para ser justos) de la tierra en la cabeza.
  2. Somos el 50% seguro de que Matt se mostrará en la parte.
  3. Somos el 50% seguro de que el Fuerte de la IA va a ser inventado por el 2080.

Estas estimaciones se sienten diferentes. Una razón de que se sienten diferentes, es que las estimaciones tienen diferentes grados de "estabilidad". En caso de que (1) no podemos esperar para obtener información que va a cambiar nuestra estimación de la probabilidad. Pero para los casos (2) y (3), podemos encontrar una información que nos causa para ajustar la estimación, ya sea hacia arriba o hacia abajo.

Para la estimación de (1) es más "estable", pero no estoy seguro de cómo esto debe ser cuantificado. Debo pensar en términos de la ejecución de una simulación de Monte Carlo de lo futuro la evidencia podría ser, y buscando algo como la varianza de la distribución de las estimaciones resultantes? ¿Qué sucede cuando se trata de un conjunto de distribución de probabilidad para, por ejemplo, el tiempo Fuerte de la IA es inventado? (¿¿Calcular la estabilidad de la densidad de probabilidad para cada año, a la media el resultado?)

Aquí están algunas otras consideraciones que pueden ser útiles para relacionarse de manera más formal a las consideraciones de la estimación de la estabilidad:

  • Si estamos estimación de algunos variable, teniendo una estrecha distribución de probabilidad (antes de futuro la evidencia con respecto a que estamos tratando de evaluar la estabilidad) corresponde a tener una gran cantidad de datos. Los nuevos datos, en ese caso, tendría menos de una contribución en términos de cambio de la media y la reducción de la varianza.
  • Hay diferencias en el modelo de la incertidumbre entre los tres casos. Yo sé lo que el modelo a utilizar a la hora de predecir un tirón de la moneda. Mi método de predicción de si Matt se mostrará en una fiesta es más vacilante, pero tengo algo de idea de lo que estoy haciendo. Con el Fuerte AI caso, yo realmente no tienen ninguna idea de lo que estoy haciendo. Presumiblemente, la incertidumbre del modelo está relacionado con la estimación de la estabilidad, debido a que la mayor incertidumbre del modelo tenemos, más nos puede cambiar la estimación por reducir nuestra incertidumbre del modelo.
  • Otra diferencia entre los tres casos es el grado en que nuestras acciones nos permiten mejorar nuestras estimaciones, aumentando su estabilidad. Por ejemplo, podemos reducir la incertidumbre y aumentar la estabilidad de nuestra estimación acerca de Matt llamando a él, pero realmente no tenemos ninguna buena manera de obtener mejores estimaciones de Fuerte AI líneas de tiempo (aparte de por la espera).
  • Valor-de-información afecta a cómo debemos tratar con retraso. Estima que son inestables en la cara de la evidencia se espera obtener en el futuro parecen implicar mayor VoI. Esto crea una razón para aceptar retrasos en nuestras acciones. O si nos pueden recopilar información que hará que nuestras estimaciones más precisas y estables, eso significa que tenemos más razón para pagar el costo de recolección de la información. Si esperamos a olvidar la información, o esperar que nuestro futuro no tomar en cuenta, inconsistencia dinámica se convierte en importante. Esta es otra razón por la que estima podría ser inestable. Una posible estrategia aquí es precommit tener nuestras estimaciones de la regresión a la media.

Gracias por los pensamientos!

1voto

Scott Saad Puntos 8894

Un aspecto importante de la estabilidad de la estimación parece ser el grado de la no-información que se presenta debido a variables no observadas. No te ves en la teoría de la información términos de la entropía y la información mutua? A primera vista, parece que "la estimación de la estabilidad" de un estimador para una variable aleatoria $X$ aproximadamente corresponde a la relación de $H(X;Y=y)/H(X)$ donde $Y$ es una variable aleatoria cuyo valor puede ser aprendido en el futuro.

En el ejemplo de una moneda, el aprendizaje de cualquier otra cosa (por ejemplo, la moneda de la moneda) no reducir la entropía $H(X)$, por lo tanto, la estimación de la estabilidad es $1$. Para la variable $X$ ("Matt mostrará"), llegar a conocer el valor de $Y$ (¿cuántos amigos de Matt van)" puede reducir considerablemente la entropía, por lo tanto, produciendo una estimación a la baja estabilidad.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X