Las distribuciones, si alguna, se obtienen de las integrales de las ecuaciones de estimación. Supongamos por simplicidad que el parámetro de escala es conocida, y el recorte de los parámetros, si los hay, son fijos.
- Para la media de la muestra, la estimación de la ecuación es E(x−μ)=0. Imagining that this is the derivative of the log-likelihood, with an awful lot of abuse of notation and loss of rigor, we have dlnl(μ;x)dμ=x−μ,lnl(μ;x)=a(x−μ)2,l(μ;x)∝exp[a(x−μ)2], where the $$ parámetro (integración constante) tiene que ser negativo para garantizar que se integra a algo significativo.
- Para la muestra, la mediana, la estimación de la ecuación es Esign(x−μ)=0. Integrate this to get l(μ;x)∝exp[a|x−μ|], where again we would have to choose $$ a ser negativo a tener sentido.
- Para el tapizado decir, la estimación de la ecuación es Eρ(x,μ,c)=0,ρ(x,μ,c)={x−μ,|x−μ|≤c,0,|x−μ|>c. Let's see what it integrates to: l(μ;x,c)={exp[a(x−μ)2],|x−μ|≤c,b,|x−μ|>c. Looks like a censored normal in the center, but look at the tails: they are improper if b>0. So to get a proper distribution, we have to set b=0. Pero entonces tenemos una contradicción lógica: esta distribución se tiene que dar un cero pdf a algunos datos reales en el tapizado de las colas. Esto es auto-contradictoria, y muestra algunos de los efectos secundarios indeseables de recorte.
A veces, es útil establecer "likelihoodity" de un método para mostrar su normalidad asintótica, y la eficiencia para una reducida clase de distribuciones. En general, la normalidad asintótica de los tapizados significa que puede seguir a partir de la teoría de la M-estima.