3 votos

Optimización del tamaño del grupo y del número de pruebas para la estimación de la prevalencia mediante pruebas de grupo

Estoy tratando de idear un protocolo para agrupar las pruebas de laboratorio de una cohorte con el fin de obtener estimaciones de prevalencia utilizando el menor número posible de reactivos.

Suponiendo una sensibilidad y especificidad perfectas (si quieres incluirlas en la respuesta es un plus), si agrupo el material de prueba en pools de tamaño $s$ y dada una probabilidad media por debajo (no me gusta el término "real") $p$ de la enfermedad, la probabilidad de que el pool sea positivo es:

$$p_w = 1 - (1 - p)^s$$

si corro $w$ tales piscinas la probabilidad de tener $k$ pozos positivos dada una cierta prevalencia es:

$$p(k | w, p) = \binom{w}{k} (1 - (1 - p)^s)^k(1 - p)^{s(w-k)}$$

es decir $k \sim Binom(w, 1 - (1 - p)^s)$ .

Para obtener $p$ Sólo necesito maximizar la probabilidad $p(k | w, p)$ o utilizar la fórmula $1 - \sqrt[s]{1 - k/w}$ (no estoy muy seguro de lo segundo...).

Mi pregunta es, ¿cómo puedo optimizar $s$ (maximizar) y $w$ (minimizar) de acuerdo con un $p$ para tener las estimaciones más precisas, por debajo de un determinado nivel de error?

1voto

mtruesdell Puntos 1639

Puede que haya encontrado una solución:

Puedo estimar la incertidumbre en torno a $p$ de dos maneras, dado $w$ y $s$ .

Primero obtengo los resultados esperados de una prueba agrupada:

$$E[p_w] = 1 - (1 - p)^s$$

Luego, mediante máxima verosimilitud y transformación logit, obtengo los Intervalos de Confianza:

$$CI_{p_{\alpha/2}} = 1 - \sqrt[s]{1 - logit^{-1}(logit(E[p_w]) \pm Z_{\alpha/2} \frac{1}{\sqrt{w E[p_w] (1-E[p_w]))}}}$$

En alternativa puedo explotar la distribución Beta como conjugada de la binomial para obtener los Intervalos de Credibilidad posteriores de $p$ para los cuantiles dados $q$ :

$$CrI_{p_{\alpha/2}} = 1 - \sqrt[s]{1 - Beta(q, 1 + w E[p_w], 1 + w (1 - E[p_w])}$$

esta segunda solución permite incluso la especificación de priors.

Temía que estas soluciones subestimaran la variabilidad, ya que evalúan la varianza a nivel de la prueba (en $p_w$ ), no a nivel de la prevalencia subyacente $p$ . Pero si comparamos los resultados con una estimación jerárquica MCMC completa de $p$ posterior con un modelo:

$$p \sim Beta(\alpha,\beta)$$ $$p_w \sim 1 - Binom(0, s, p)$$ $$p(k | w, p_w) \sim Binom(k, w, p_w)$$

se puede demostrar que no hay diferencias relevantes con los intervalos de los otros dos métodos (que, por supuesto, son más rápidos de calcular).

Por último, busco numéricamente el valor máximo de $s$ y mínimo de $w$ que mantienen la incertidumbre por debajo de un umbral determinado. Estoy postulando que a medida que la incertidumbre disminuye también lo hará el sesgo de estimación debido a la pérdida de información en la agrupación. Todavía no he encontrado una forma analítica de obtener este error directamente.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X