Estoy trabajando con algunos datos de mortalidad de aves a lo largo de 9 años de encuestas y me he encontrado con un problema para estimar la desviación estándar.
A lo largo de los 9 años, las estimaciones de supervivencia fueron de 0,47, 0,60, 0,36, 0,58, 0,57, 0,50, 0,57, 0,46 y 0,40. Dentro de cada una de las estimaciones anuales de supervivencia, digamos que había 100 puntos de datos cada año.
¿cuál es la desviación estándar y el error estándar, suponiendo que todos los valores se extraen de la misma población (no es una suposición legítima, lo sé)?
¿Es la desviación estándar simplemente sqrt(p * (1-p))? eso parece demasiado grande? No estoy seguro de cómo esto explicaría las diferencias de dispersión. Por ejemplo, se podría imaginar otro escenario en el que las estimaciones de supervivencia tuvieran una mayor dispersión pero la misma media (por ejemplo, .1,.2,.3,.8,.7,.8,.6,.4,.6) que tendría la misma media global y, por tanto, llegaría a la misma desviación estándar.
Aquí hay un código R que he utilizado para tratar de averiguarlo. dat son los datos de supervivencia simulada (1) y mortalidad(0), mientras que prop representa las proporciones.
set.seed(250)
Randprop = c(.47,.60,.36,.58,.57,.50,.57,.46,.40)
func = function(x){return(rbinom(100,1,x))}
dat = lapply(prop,func)
prop = unlist(lapply(dat,mean))
Tal vez lo que quiero es simplemente la desviación estándar ( por ejemplo, sd(prop) en R), pero realmente no puedo pensar en una justificación, aparte del hecho de que incluiría información sobre la variación entre los valores de la proporción muestreada.
En cuanto al error estándar, ¿es N = 9 (el número de años) o es N = el número total de puntos de datos (9 * 100)?
Se agradecería cualquier ayuda.