5 votos

la combinación de una variable aleatoria y su inversa

Yo soy la medición de dos entidades científicas, X y y usando empírica de las mediciones. Cada uno tiene su propia media y varianza de la muestra basado en Nx y Ny muestra de las mediciones. Sé de la ciencia subyacente que X es 1/S (por ejemplo, una variable es la inversa de la otra). Debido a que el muestreo es empírica no obtengo un resultado que es exactamente inversa. Quiero hacer de la mejor estimación de la proporción entre ellas. por ejemplo, sea X la media de 4 sobre la base de 30 mediciones con un desvest de 3. sea Y tienen una media de 0.4 basado en 12 mediciones con stdev de 0.5

así que la combinación de los dos debería haber algo como X=3 y Y=1/3 Pero tal vez debería ser X=3.5 y Y=1/3.5 etc..

¿Cómo ir sobre la búsqueda de la mejor relación?

3voto

jldugger Puntos 7490

Esto suena como que tiene un conjunto de datos que consta de las mediciones de $(x_i, i=1,2,\ldots,n)$ $(y_j, j=1,2,\ldots,m)$ ( $n=30, m=12$ ). Permítanos postulan que

  1. Todas las medidas pueden ser consideradas independientes variables aleatorias.

  2. Hay una cantidad fija ("parámetro") $\mu$ para que todos los $x_i-\mu$ tienen un punto en común de distribución de $F$ (cuya expectativa es $0$, lo que refleja una falta de sesgo en las mediciones) y todas las $y_j - 1/\mu$ tienen un punto en común de distribución de $G$ ($0$ valor esperado).

Una manera de hacer algo de progreso es el estudio de las distribuciones de error de $F$$G$. Para ilustrar cómo esta información puede ser usada, consideremos una amplia aplicación del modelo en el que las distribuciones tienen formas idénticas, pero se desconoce las cantidades de dispersión (que vamos a medir con la varianza). Deje que la varianza de $F$ $\sigma^2$ y la varianza de la $G$$\tau^2$. A menudo, estas distribuciones aproximadamente Normales, por ejemplo (aunque muchas otras formas de error puede ser modelada).

Los supuestos de independencia implica la probabilidad de las observaciones, $L$, es el producto de las densidades de probabilidad. Deje $\phi$ ser la densidad por unidad de varianza. Cuando asumimos Normalmente distribuida variación, por ejemplo,

$$\phi(z) = \frac{1}{\sqrt{2\pi}} \exp({-z^2/2}).$$

Then $\phi_\sigma(x) = \phi(x/\sigma)/\sigma$ is the density of $F$ and $\phi_\tau(y)=\phi(y/\tau)/\tau$ is the density of $G$. Accordingly,

$$L(\mu, \sigma, \tau; (x_i), (y_j)) = \prod_{i=1}^n \phi_\sigma(x_i-\mu) \prod_{j=1}^m \phi_\tau(y_j-1/\mu).$$

We may estimate $\mu$ using the method of Maximum Likelihood: find values of $\mu,\sigma,\tau$ que hacen de esta posibilidad tan grande como sea posible. Para simplificar los productos, y para cumplir con la convención de que los problemas de optimización son generalmente de fundición como la minimización de los problemas, nos vamos a minimizar la negativa de registro de probabilidad

$$\eqalign{ \Lambda(\mu\sigma,\tau) y= -\log(L(\cdots)) \\ y= -\sum_{i=1}^n \left(\log \phi\left(\frac{x_i-\mu}{\sigma}\right) - \log \sigma \right) - \sum_{j=1}^m \left(\log \phi\left(\frac{y_j-1/\mu}{\tau}\right) - \log \tau \right) \\ &=-n\log\sigma - m\log\tau \sum_{i=1}^n \log \phi\left(\frac{x_i-\mu}{\sigma}\right) - \sum_{j=1}^m\log \phi\left(\frac{y_j-1/\mu}{\tau}\right). }$$

To continue the illustration, assume from now on that the error distributions are Normal. We easily find that the minimum must occur when $\sigma^2$ is the variance of the $(x_i)$ and $\tau$ is the variance of the $(y_j)$:

$$\hat\sigma^2 = \frac{1}{n} \sum_{i=1}^n (x_i - \bar x)^2; \quad \bar x = \frac{1}{n}\sum_{i=1}^n x_i; \\ \hat\tau^2= \frac{1}{m} \sum_{i=1}^m (y_i - \bar y)^2; \quad \bar y = \frac{1}{m}\sum_{j=1}^m y_j.$$

It remains to find $\hat\mu$ for which $\Lambda(\hat\mu\hat\sigma\hat\tau)$ is minimum. This value could be any real number--there are no boundary values to check. Since $\Lambda$ is a differentiable function of its first argument, the minimum must occur at a zero of its derivative:

$$0 = \frac{\partial}{\partial \mu}\Lambda(\mu\cdots) = \frac{1}{ \hat\sigma }\sum_{i=1}^n \frac{\phi^\prime\left(\frac{x_i-\mu}{\hat\sigma}\right)}{ \phi\left(\frac{x_i-\mu}{\hat\sigma}\right) } - \frac{1}{\mu^2 \hat\tau}\sum_{j=1}^m \frac{\phi^\prime\left(\frac{y_j-1/\mu}{\hat\tau}\right)}{ \phi\left(\frac{y_j-1/\mu}{\hat\tau}\right) }. $$

Normal distributions are often chosen in models precisely because the function $\phi^\prime(z)/\phi(z) = -z$ is linear, making such equations easy to solve. In this case the presence of $1/\mu$ complicates things a bit:

$$\frac{n}{\hat \sigma^2}\left(\bar x - \mu\right) = \frac{1}{\hat\sigma}\sum_{i=1}^n \frac{x_i - \mu}{\hat\sigma} = \frac{1}{\mu^2\hat\tau}\sum_{j=1}^m\frac{y_j - 1/\mu}{\hat\tau} = \frac{m}{\mu^2\hat\tau^2}\left(\bar y - 1/\mu\right).$$

The equation in $\mu$, whose solutions must include the estimate $\hat\mu$, is of fourth degree, rather than linear. Nevertheless it can be solved numerically and typically will produce a global minimum somewhere near $\bar x$ or $1/\bar y$, provided there are enough data and their variances are not too large. (The presence of negative values is not a good sign!)

(Alternatively, we might hope that the variance of $s$ decreases with $\mu$, as is often the case in measuring positive quantities. In that case we might discover that the $y_j$ are perhaps better modeled using distributions whose variances are $\tau^2/\mu^2$ (for example). This would turn the preceding equation back into one which is linear in $\mu$, making it straightforward to solve. This possibility suggests there is value in studying how the precision of the measurement process producing the $y_j$ might vary with $\mu$. The $x_i$ measurement process deserves a comparable study.)

Simulations suggest that with the conditions described in the question ($\bar x$ near $3$, $n=30$, $m=12$, and some negative values in the $s$ data), using the $s$ data actually does not improve the precision of the estimates. The estimates are improved when the aggregate $s$ measurements are relatively more precise than the aggregate $x$ measurements; that is, when $m\tau^2 \mu^2 \gg n\sigma^2 / \mu^2$ ($\tau \ll \frac{m}{n}\sigma/\mu^2$), assuming $\mu \gt 1$. Here is an example of that good situation, and indeed $\hat\mu$ is closer to $\mu$ than $\bar x$ is:

Figure

The vertical solid blue lines are the true mean $\mu=3$. The vertical solid gray lines show the means $\bar x$ and $1/\bar y$. The vertical dashed red lines show the ML estimate $\hat\mu$. The horizontal dashed red line in the Profile Likelihood plot shows an upper $95\$ confidence limit for $%\Lambda$: values of $\mu$ for which the graph of $\Lambda$ lie below this limit form a two-sided $95\$ confidence interval for $%\mu$. In this example that interval just barely includes the true value of $\mu$.

FWIW, applying this procedure to the data (as given in a comment to another answer, interpreting the 12 values of "first var" to be $x$ and the 30 values of "second var" to be $y$) yields $\hat\mu = 1.79$, with a $95\$ confidence interval approximately $%[0.9,3.2]$. The data reflect a large amount of measurement error: $\hat\sigma=1.85$ and $\hat\tau=1.40$. Here is a summary of the data and the fit:

Figure 2

Here is the R code to compute $\hat\mu \hat\sigma \hat\tau$, y para llevar a cabo dichas simulaciones.

#
# Negative log (partial) likelihood.
#
lambda <- function(mu, sigma2, tau2, x, y) {
  (sum((x - mu)^2)/sigma2 + sum((y - 1/mu)^2)/tau2)/2
}
#
# Maximum likelihood estimation.
#
mle <- function(x, y) {
  sigma.hat <- mean((x-mean(x))^2)
  tau.hat <- mean((y-mean(y))^2)
  fit <- optimize(lambda, c(min(1/max(y), min(x)), max(x, 1/min(y))),
                  sigma2=sigma.hat, tau2=tau.hat, x=x, y=y)
  list(mu.hat=fit$minimum, sigma.hat=sigma.hat, tau.hat=tau.hat, 
           Lambda=fit$objective)
}
#
# Create sample data.
#
set.seed(17)
n <- 30; m <- 12
mu <- 3
sigma <- 1/2
tau <- 0.5 * (m/n) * sigma / mu^2
x <- rnorm(n, mu, sigma)
y <- rnorm(m, 1/mu, tau)
#
# Find the solution.
#
fit <- mle(x, y)
#
# Plot the data and profile log likelihood
#
se <- sd(x) / sqrt(n)
i <- seq(fit$mu.hat-3*se, fit$mu.hat+3*se, length.out=101)
z <- sapply(i, function(j) lambda(j, fit$sigma.hat, fit$tau.hat, x, y))
markup <- function(z) {
  abline(v = mu, col="Blue", lwd=2)
  if(!missing(z)) abline(v = z, col="Gray", lwd=2)
  abline(v = fit$mu.hat, lwd=2, col="Red", lty=3) #$
}
par(mfrow=c(1,3))
hist(x, freq=FALSE); markup(mean(x))
hist(1/y, freq=FALSE); markup(1/mean(y))
plot(i, z, type="l", xlab="mu", ylab="Lambda", main="Profile Likelihood")
abline(v = mu, col="Blue", lwd=2)
abline(h = fit$Lambda + qchisq(0.95, 1)*2, lty=3, lwd=2, col="Red")

1voto

user8076 Puntos 16

Quiero terminar whuber respuesta (muy bonito como siempre) con algunos de distribución libre de consideraciones.

Yo denotar $E(Z) = m$$\text{Var}(Z) = \sigma^2$$Z\sim (m, \sigma^2)$.

En primer lugar, un pequeño lema (utilizando el método Delta) : si $Z \sim \left({1\over \mu}, \sigma^2\right)$, aproximadamente ${1\over Z} \sim \left( \mu + \mu^3 \sigma^2, \mu^2\sigma^2\right)$. Esto viene fácilmente a partir de la primera y segunda orden aproximaciones $$\begin{aligned} {1\over Y} = {1\over {1\over \mu} + Y - {1\over \mu}} &\simeq \mu - \mu^2 \left(Y-{1\over\mu}\right)\\ &\simeq \mu - \mu^2 \left(Y-{1\over\mu}\right)+\mu^3\left(Y-{1\over\mu}\right)^2. \end{aligned}$$ Tenga en cuenta que usted necesita para suponer que el apoyo de la ley es en $\mathbb R^{>0}$ o en $\mathbb R^{<0}$ para que esto tenga sentido.

Ahora suponga $Y_1, \dots, Y_m$ son independientes $~\sim\left({1\over \mu},\sigma^2\right)$. Hay dos maneras naturales para obtener una estimación de $\mu$, y del lema anterior podemos encontrar aproximaciones de su valor esperado y la varianza:

$$\begin{aligned} {1\over m} \left( {1\over Y_1} + \cdots + {1\over Y_m} \right) &\sim \left( \mu + \mu^3 \sigma^2, {1\over m}\mu^2\sigma^2 \right) \\ {m \over Y_1 + \cdots + Y_m} &\sim \left( \mu + {1\over m} \mu^3 \sigma^2, {1\over m}\mu^2\sigma^2 \right) \end{aligned}$$

El segundo sesgo en $1 \over m$, mientras que el primero tiene la constante de sesgo. Esto es de alguna manera intuitiva, pero creo que esto era digno de mención.

0voto

Aksakal Puntos 11351

Decir que hay dos conjuntos de datos: $x_i$$y_j$. Sabemos que $\frac{1}{y_j}=x_j$ a partir de la teoría o la investigación anterior. Creo que la mejor estimación de la media de $\bar x$ es la siguiente: $$\bar x=\frac{\sum_{n_x}x_i+\sum_{n_y}\frac{1}{y_j}}{n_x+n_y}$$

Vamos a ver si es parcial: $$E[\bar x - \mu]=\frac{\sum_{n_x}(E[x_i]-\mu)+\sum_{n_y}(E[\frac{1}{y_j}]-\mu)}{n_x+n_y}=0$$

Esto es debido a que $$E[\frac{1}{y_j}]=E[x_j]=\mu$$ Nota, que $E[y]\ne\frac{1}{\mu}$

Si desea comparar las proporciones, a continuación, proceder de una manera similar:

$$\mu_x=\frac{\sum_{i=1}^{n_x}x_i}{n_x}$$ y $$\mu_y=\frac{\sum_{j=1}^{n_y}\frac{1}{y_j}}{n_x}$$

lo mismo va para las desviaciones estándar y los habituales t-test ANOVA: el uso de $\frac{1}{y_j}$ dondequiera que se use utilizado $x_i$. La clave aquí es que no funciona en los agregados, tales como $E[y_j]$, debido a que no son convertibles fácilmente en $\frac{1}{E[x]}$ debido a la desigualdad de Jensen.

ACTUALIZACIÓN Aquí la analogía de la física. Digamos que usted está midiendo la resistencia. Usted tiene Ohm-metro, que mide directamente y muestra de 10 Ohm.

Ahora, hay que medir con un Ampere-medidor de la conexión de la resistencia de la fuente de alimentación de CC que produce de 10 Voltios. La Ley de Ohm: $R=\frac{V}{I}$. Leer dos medidas: 1.1 y 1.2 A.

Estoy sugiriendo que usted compare el 10$\Omega$ $\frac{\frac{10}{1.1}+\frac{10}{1.2}}{2}=8.7 \Omega$

UPDATE2: Basado en OP comentarios, parece que el modelo es el siguiente: $$x_i=z_i+e_i$$ $$y_j=\frac{1}{z_j}+u_j$$ Aquí, $z$ es lo que queremos medir, mientras que el $x$ $y$ son lo que realmente miden, y $e,u$ son errores, los cuales son bastante grandes.

Si usted va con la combinación de $E[x]$$\frac{1}{E[y]}$, entonces usted tendrá que lidiar con los prejuicios $\frac{1}{E[y]}-E[z]$.

Creo que en este caso es importante entender los errores, especialmente en $u_j$. Si sabía algo acerca de la distribución, que podría corregir el sesgo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X