Esto parece un simple caso de muestreo hipergeométrico. Así que tienes una distribución de muestreo de:
$$p(r_1,r_2,r_3|R_1,R_2,R_3,I)=\frac{{R_1 \choose r_1}{R_2 \choose r_2}{R_3 \choose r_3}}{{R_1+R_2+R_3 \choose r_1+r_2+r_3}}$$
Las letras mayúsculas denotan los totales de la población y las minúsculas los números de la muestra. $I$ es la información previa sobre el muestreo. Se quiere "invertir" esto para obtener una distribución para $R_{i}$ Sólo hay que utilizar el teorema de Bayes:
$$p(R_1,R_2,R_3|r_1,r_2,r_3,I)=p(R_1,R_2,R_3|I)\frac{p(r_1,r_2,r_3|R_1,R_2,R_3,I)}{p(r_1,r_2,r_3|I)}$$
¡Y ahora tienes una declaración sobre la exactitud de los totales de población!
ACTUALIZACIÓN
En respuesta al comentario, los valores de $R_{j}$ son los totales desconocidos de la población para cada uno de los tres estados - así que si se hubiera muestreado/probado cada elemento, se obtendría $R_{j}$ como las cifras de cada estado. Supongo que estas cantidades son el objetivo de su inferencia - esto es lo que le gustaría saber.
El total de la población $N=R_{1}+R_{2}+R_{3}\approx 1,000,000$ (podemos tener en cuenta un posible error más adelante). También se conocen los números muestreados $r_{1},r_{2},r_{3}$ (el número que ha dado positivo en cada estado de su muestra). El tamaño total de la muestra $n=r_{1}+r_{2}+r_{3}$ .
la cantidad $p(R_1,R_2,R_3|I)$ se llama el prior, y se asigna en base a lo que se conoce sobre los totales de la población más allá de los datos de la muestra. Ahora bien, usted ha afirmado que $N$ es conocida, lo que limita pero no determina la prioridad. Una forma de determinar la prioridad es dividir las tres proposiciones en partes mutuamente excluyentes y exhaustivas, y asignar probabilidades iguales a las que suman $N$ y cero a todo lo demás. Un rápido ejercicio de recuento muestra que hay $\frac{(N+1)(N+2)}{2}$ combinaciones de $R_1,R_2,R_3$ que suman $N$ por lo que la previa conjunta es:
$$p(R_1,R_2,R_3|N,I)=\frac{2}{(N+1)(N+2)}\delta(N-R_1-R_2-R_3)$$
Dónde $\delta(x)=1$ si $x=0$ y $\delta(x)=0$ si $x\neq 0$ . Y puedes calcular la constante de normalización $P(r_1,r_2,r_3|N,I)$ sumando las probabilidades a priori y de muestreo sobre el $R_{j}$ por lo que obtenemos:
$$p(r_1,r_2,r_3|N,I)=\sum_{R_1=0}^{N}\sum_{R_2=0}^{N}\sum_{R_3=0}^{N}p(R_1,R_2,R_3|N,I)p(r_1,r_2,r_3|R_1,R_2,R_3,N,I)$$ $$=\sum_{R_1=0}^{N}\sum_{R_2=0}^{N-R_1}\frac{2}{(N+1)(N+2)}\frac{{R_1 \choose r_1}{R_2 \choose r_2}{N-R_1-R_2 \choose n-r_1-r_2}}{{N \choose n}}$$
Ahora $(N+1)(N+2){N \choose n}=(n+1)(n+2){N+2 \choose n+2}$ y
$$\sum_{R_1=0}^{N}\sum_{R_2=0}^{N-R_1}{R_1 \choose r_1}{R_2 \choose r_2}{N-R_1-R_2 \choose n-r_1-r_2}={N+2 \choose n+2}$$
Así que tenemos:
$$p(r_1,r_2,r_3|N,I)=\frac{2}{(n+1)(n+2)}$$
Y por lo tanto la distribución posterior es:
$$p(R_1,R_2,R_3|r_1,r_2,r_3,N,I)=\frac{2}{(N+1)(N+2)}\frac{\frac{{R_1 \choose r_1}{R_2 \choose r_2}{R_3 \choose r_3}}{{N \choose n}}}{\frac{2}{(n+1)(n+2)}}=\frac{{R_1 \choose r_1}{R_2 \choose r_2}{R_3 \choose r_3}}{{N+2 \choose n+2}}$$
La última forma muestra muy fácilmente cómo generalizar, para los interesados (observando que $2=3-1$ ). Esta posterior tiene expectativa para $R_1$ de:
$$E([R_1+1]|r_1,r_2,r_3,N,I)=\sum_{R_1=0}^{N}\sum_{R_2=0}^{N-R_1}\frac{(R_1+1){R_1 \choose r_1}{R_2 \choose r_2}{R_3 \choose r_3}}{{N+2 \choose n+2}}=\frac{(r_1+1)(N+3)}{n+3}$$ $$\implies E(R_1|r_1,r_2,r_3,N,I)=\frac{(r_1+1)(N-n+n+3)-(n+3)}{n+3}$$ $$=r_1+(N-n)\hat{p}$$
donde $\hat{p}=\frac{r_1+1}{n+3}$ . Se trata del número de observados en la categoría 1 más una estimación del número que queda sin observar en la categoría 1. Ahora para la precisión podemos tomar la varianza - que, utilizando el mismo truco calcular $$E([R_1+1][R_1+2])=\frac{(r_1+1)(r_1+2)(N+3)(N+4)}{(n+3)(n+4)}=E([R_1+1]^2)+E(R_1+1)$$ y nota que $var(R_1)=var(R_1+1)$ obtenemos
$$var(R_1)=E([R_1+1][R_1+2])-E(R_1+1)-[E(R_1+1)]^2$$ $$=\frac{(r_1+1)(N+3)}{n+3}\left[\frac{(r_1+2)(N+4)}{n+4}-1-\frac{(r_1+1)(N+3)}{n+3}\right]$$ que después de algunas tediosas manipulaciones se obtiene:
$$var(R_1)=\frac{\hat{p}(1-\hat{p})}{n+4}(N-n)(N+3)$$
También puedes calcular la media y la varianza de la fracción restante $F=\frac{R_1-r_1}{N-n}$ que vienen dados por:
$$E(F|r_1,r_2,r_3,N,I)=\hat{p}\;\;\;\;\;var(F|r_1,r_2,r_3,N,I)=\frac{\hat{p}(1-\hat{p})}{n+4}\left(1+\frac{n+3}{N-n}\right)$$
Y entonces las cantidades son aproximadamente independientes de $N$ - por lo que la precisión de $N$ no es importante para inferir las proporciones de cada categoría, pero sí lo es la fracción de muestreo.
Una forma de incorporar la incertidumbre sobre $N$ es utilizar una previa uniforme entre a los límites $L_N<N<U_N$ y luego "promediar" el valor de $N$ de la parte posterior:
$$p(R_1,R_2,R_3|r_1,r_2,r_3,I)=\frac{1}{U_N-L_N}\sum_{N=L_N}^{U_N}p(R_1,R_2,R_3|r_1,r_2,r_3,N,I)$$
Pero a menos que los términos de esta suma sean sensiblemente diferentes, el resultado no cambiará mucho. No lo hará en este caso como he demostrado