La respuesta dada por miura no es del todo exacta, así que respondo a esta vieja pregunta para la posteridad:
(2). Son cosas muy diferentes. La CDF empírica es una estimación de la CDF (distribución) que generó los datos. Precisamente, es la FCD discreta que asigna la probabilidad $1/n$ a cada punto de datos observado, $\hat{F}(x) = \frac{1}{n}\sum_{i=1}^n I(X_i\leq x)$ para cada $x$ . Este estimador converge a la verdadera fdc: $\hat{F}(x) \to F(x) = P(X_i\leq x)$ casi seguramente para cada $x$ (de hecho, de manera uniforme).
La distribución muestral de una estadística $T$ es, en cambio, la distribución de la estadística que se espera ver en una experimentación repetida. Es decir, usted realiza su experimento una vez y recoge los datos ${X_1,\ldots,X_n}$ . $T$ es una función de sus datos: $T = T(X_1,\ldots,X_n)$ . Ahora, supongamos que se repite el experimento y se recogen datos ${X'_1,\ldots,X'_n}$ . Recalculando T en la nueva muestra se obtiene $T' = T({X'_1,\ldots,X'_n})$ . Si recogiéramos 100 muestras tendríamos 100 estimaciones de $T$ . Estas observaciones de $T$ forman la distribución muestral de $T$ . Es una distribución verdadera. A medida que el número de experimentos llega al infinito su media converge a $E(T)$ y su varianza a $Var(T)$ .
En general, por supuesto, no repetimos experimentos como éste, sólo vemos una instancia de $T$ . Averiguar cuál es la varianza de $T$ es a partir de una única observación es muy difícil si no se conoce la función de probabilidad subyacente de $T$ a priori. El Bootstrapping es una forma de estimar esa distribución muestral de $T$ mediante la ejecución artificial de "nuevos experimentos" sobre los que calcular nuevas instancias de $T$ . Cada nueva muestra es en realidad una nueva muestra de los datos originales. Que esto te proporcione más información que la que tienes en los datos originales es misterioso y totalmente asombroso.
(1). Está en lo cierto: no se haría esto. El autor trata de motivar el bootstrap paramétrico describiéndolo como "lo que harías si conocieras la distribución" pero sustituyéndolo por un estimador muy bueno de la función de distribución: la fdc empírica.
Por ejemplo, suponga que sabe que su estadística de prueba $T$ se distribuye normalmente con media cero y varianza uno. ¿Cómo estimarías la distribución muestral de $T$ ? Bueno, ya que conoces la distribución, una forma tonta y redundante de estimar la distribución muestral es usar R para generar unas 10.000 variables aleatorias normales estándar, luego tomar su media y varianza muestral, y usarlas como nuestras estimaciones de la media y varianza de la distribución muestral de $T$ .
Si nos no conocer a priori los parámetros de $T$ pero sabemos que se distribuye normalmente, lo que podemos hacer en su lugar es generar unas 10.000 muestras de la fdc empírica, calcular $T$ en cada uno de ellos, y luego tomar la media y la varianza muestral de estos 10.000 $T$ y utilizarlos como nuestras estimaciones del valor esperado y la varianza de $T$ . Dado que la fdc empírica es un buen estimador de la fdc verdadera, los parámetros de la muestra deberían converger a los parámetros verdaderos. Esto es el bootstrap paramétrico: se plantea un modelo sobre el estadístico que se quiere estimar. El modelo está indexado por un parámetro, por ejemplo $(\mu, \sigma)$ que se estima a partir de un muestreo repetido de la ecdf.
(3). El bootstrap no paramétrico ni siquiera requiere saber a priori que $T$ se distribuye normalmente. En su lugar, simplemente se extraen muestras repetidas de la ecdf, y se calcula $T$ en cada uno de ellos. Después de haber extraído unas 10.000 muestras y calculado 10.000 $T$ s, puede trazar un histograma de sus estimaciones. Se trata de una visualización de la distribución muestral de $T$ . El bootstrap no paramétrico no le dirá que la distribución de muestreo es normal, o gamma, etc., pero le permite estimar la distribución de muestreo (normalmente) con la precisión necesaria. Hace menos suposiciones y proporciona menos información que el bootstrap paramétrico. Es menos preciso cuando el supuesto paramétrico es verdadero, pero más exacto cuando es falso. El uso de uno u otro en cada situación depende totalmente del contexto. Es cierto que la gente está más familiarizada con el bootstrap no paramétrico, pero a menudo una suposición paramétrica débil hace que un modelo completamente intratable sea susceptible de estimación, lo cual es encantador.