5 votos

¿Qué es una buena manera de estimar la dependencia de una variable de salida en los parámetros de entrada?

Estoy evaluando un escenario del parámetro de salida depende de tres parámetros: a, B y C. Para esto, estoy llevando a cabo los siguientes experimentos:

  • Revisión a+B, Varían de C - Total de cuatro conjuntos de (a+B) cada uno con 4 variaciones de C
  • Revisión B+C, Varían de Un Total de cuatro conjuntos de (B+C) cada uno con 3 variaciones de C
  • Revisión C+A, Varían B - un Total de cuatro conjuntos de (C+A) cada uno con 6 variaciones de C

La salida de cualquier simulación es el valor de una variable en el tiempo. Por ejemplo, Una podría ser la zona, B podría ser la velocidad y el C puede ser el número de vehículos. La variable de salida que estoy observando es que el número de accidentes de automóvil a lo largo del tiempo.

Estoy tratando de determinar qué parámetro(s) dominan el resultado del experimento. Por dominan, me refiero a que a veces, los resultados no cambian cuando uno de los parámetros de cambio, pero cuando algún otro parámetro es cambiado, incluso por una pequeña cantidad, un gran cambio en la salida que se observa. Necesito capturar este efecto y la salida de algunos análisis a partir de la cual puedo entender la dependencia de la salida de los parámetros de entrada. Un amigo sugirió Análisis de Sensibilidad, pero no estoy seguro de si hay maneras más simples de hacerlo. Por favor alguien puede ayudarme con una buena (posiblemente fácil porque no tengo las Estadísticas de fondo), la técnica? Sería genial si todo esto se puede hacer en R.

Actualización: He utilizado la regresión lineal para obtener la siguiente:

lm(formula = T ~ A + S + V)

Residuals:
     Min       1Q   Median       3Q      Max 
-0.35928 -0.06842 -0.00698  0.05591  0.42844 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) -0.01606    0.16437  -0.098 0.923391    
A            0.80199    0.15792   5.078 0.000112 ***
S           -0.27440    0.13160  -2.085 0.053441 .  
V           -0.31898    0.14889  -2.142 0.047892 *  
---
Signif. codes:  0 ‘***' 0.001 ‘**' 0.01 ‘*' 0.05 ‘.' 0.1 ‘ ' 1 

Residual standard error: 0.1665 on 16 degrees of freedom
Multiple R-squared: 0.6563, Adjusted R-squared: 0.5919 
F-statistic: 10.18 on 3 and 16 DF,  p-value: 0.0005416 

¿Significa esto que la salida depende sobre todo de Una y menos en la V?

9voto

Eggs McLaren Puntos 945

Un par de comentarios:

  1. ¿Por qué ir con su particular diseño experimental set-up? Por ejemplo, la revisión a+B y variar C. ¿Qué sería de corregir a + B? Si usted está interesado en determinar el efecto de a y B, me parece un poco extraño que usted puede fijar "los valores óptimos". Existen técnicas estadísticas estándar para muestreo de multi-dimensión del espacio. Por ejemplo, latina hypercubes.

  2. Una vez que tiene los datos, ¿por qué no empezar con algo simple, a decir de regresión lineal múltiple. Tiene 3 entradas, a, B, C y una variable de respuesta. Sospecho que a partir de su descripción, puede que tenga que incluir términos de interacción para las covariables.

Actualización

Un par de comentarios en su regresión:

  1. ¿Los datos se ajustan al modelo? Usted necesita para comprobar los residuos. Intente buscar en google "R y la regresión".
  2. Sólo porque uno de sus covariables tiene un menor p-valor, no significa que tiene el efecto más fuerte. Por eso, un vistazo a las estimaciones de la $\beta_i$ condiciones: 0.8, -0.23, -0.31.

    Por lo que una unidad de cambio en $A$ resultados en $T$ el aumento de 0.8, mientras que una unidad de cambio en $S$ resultados en $T$ por la disminución de 0.23. Sin embargo, son las unidades de las covariables comparables? Por ejemplo, se puede ser físicamente imposible para $A$ a cambio de 1 unidad. Sólo tú puedes tomar esa decisión.

Por CIERTO, trate de no actualizar su pregunta, de modo que cambia su significado original. Si usted tiene una pregunta nueva, a continuación, sólo hacer una nueva pregunta.

3voto

Eran Medan Puntos 193

EDIT: Después de alguna reflexión, he modificado mi respuesta sustancialmente.

La mejor cosa a hacer sería la de tratar de encontrar una manera razonable de modelo para los datos (por ejemplo, mediante el uso de regresión lineal múltiple). Si usted no puede obtener suficientes datos para ello, me gustaría tratar el siguiente "no paramétricas". Supongamos que en el conjunto de datos, la covariable $A$ toma los valores $A=a_1, ..., a_{n_A}$, y de la misma manera para $B$, $C$, etc. Entonces lo que puedes hacer es realizar una regresión lineal en sus variables dependientes en contra de las variables indicadoras $I(A= a_1), I(A=a_2), ..., I(A = a_{n_A}), I(B = b_1),...$ etc. Si usted tiene suficiente de datos también puede incluir términos de interacción, tales como $I(A=a_1, B=b_1)$. A continuación, puede utilizar el modelo de selección de técnicas para eliminar las covariables que tengan el menor efecto.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X