Es conocido. Incluso podemos hacer de una forma más precisa y ligeramente más fuerte declaración.
La siguiente demostración se basa en dos ideas. La primera es que para cualquier variable aleatoria X, la esperanza condicional
E[X|X≤t]
is a non-decreasing function of t. This is geometrically obvious: as t increases, the integral extends over a region that is widening to the right, thereby shifting the expectation to the right.
The second idea concerns any joint random variables (X,Y). A general way to study their relationship is to "slice" X and study the average value of Y within each slice. More formally, we can consider the conditional expectations
ν(x)=E[Y|X=x]
as a function of x. This function contains more information than the sign of the covariance or correlation, which only tells us whether this function increases or decreases on average. In particular, if ν is nondecreasing, then Cov(X,Y)≥0. (The converse is not true, which is why non-decrease of ν is a stronger condition than a non-negative covariance.)
To apply these ideas, let X(i),1≤i≤n, be order statistics for n independent (but not necessarily identically distributed) random variables. Pick 1≤i<j≤n for further study. Because Xi)≤X(j) (by their very definition), the condition Xi)≤X(j)|X(j)=t is equivalent to Xi)|Xi)≤elt. The first idea now informs us that the expected value of Xi)|X(j) is nondecreasing with respect to the value of X(j). Letting Xi) play the role of X and X(j) the role of S in the second idea implies Cov(Xi),X(j))≥0, QED.
(It is possible for such covariances to equal zero. This will happen whenever the variables have no overlaps in their ranges, for instance, for then the order statistics coincide with the variables, whence they are independent, whence all their covariances must vanish.)
An imperfect illustration of these ideas is afforded by a simulation in which the sampling is repeated thousands of times and a scatterplot matrix is drawn showing the (Xi),X(j)) pares. Estos diagramas de dispersión aproximada de la verdadera bivariado de las distribuciones de las estadísticas de orden. La anterior demostración afirma que todas las suaviza de los diagramas de dispersión en la parte inferior de la diagonal de la matriz no va a ser la disminución de las curvas. (Puede que no lo hacen debido a un par de periféricos de alta o puntos de apalancamiento: esto es sólo la suerte del sorteo, no es un contraejemplo!)
Por ejemplo, yo simulada de los datos que se extrajeron de forma independiente a partir de una distribución uniforme, una Gamma(3,2) distribución, otra distribución uniforme apoyado en [1,2], una forma de " J " distribución Beta (Beta(1/10, 3)), y una distribución Normal (N(1/2, 1)). Aquí están los resultados después de 5.000 muestras fueron extraídas:
![Figure]()
Por supuesto, todos los suaviza (rojo curvas) son no decrecientes. (Bueno, hay un alto punto de apalancamiento a la izquierda en la X.1
vs X.2
de la parcela que le hace mirar como el buen inicialmente podría disminuir ligeramente, pero eso es un artefacto de esta muestra finita. Es por eso que me caracteriza esta simulación como un "imperfecto" la ilustración.)
El R
código para reproducir esta figura de la siguiente manera.
n.data <- 5000
rvs <- c(runif,
function(n) rgamma(n, shape=3, rate=2),
function(n) runif(n, 1, 2),
function(n) rbeta(n, .1, 3),
function(n) rnorm(n, 1/2))
set.seed(17)
x <- data.frame(t(apply(sapply(rvs, function(f) f(n.data)), 1, sort)))
names(x) <- c("X.1", "X.2", "X.3", "X.4", "X.5")
panel.smooth <- function(x, y, ...) {
points(x,y, ...)
lines(lowess(x,y, f=.9), col="Red", lwd=2)
}
pairs(x, lower.panel=panel.smooth, cex=0.5, col="Gray")