2 votos

Cómo tratar grandes conjuntos de datos (big $n$ ) en R? (pregunta para principiantes)

Digamos que se supone que los datos se distribuyen exponencialmente con media $\zeta$ . La función de verosimilitud incluye el factor $\exp{- \sum x_i/\zeta}$ . Para un gran conjunto de datos, se trata de un valor potencialmente muy pequeño. Entonces, ¿cómo se abordan cuestiones como la prueba de la razón de verosimilitud, en la que tenemos que tomar la razón de números tan pequeños?

He probado con R y no lo hace correctamente. Sólo devuelve NaN.

1voto

Lev Puntos 2212

El problema viene de utilizar la verosimilitud en lugar del logaritmo de verosimilitud: puesto que $$\ell(\zeta|x_1,\ldots,x_N)=\log L(\zeta|x_1,\ldots,x_N)=n\log(\zeta)-\zeta\sum_i x_i$$ de esta forma se pueden manipular muestras de mayor tamaño, sin pérdida desde el punto de vista de la inferencia.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X