Para describir una variable aleatoria $X$, especificamos cuál es la probabilidad de que el resultado de $X$ sea algún valor $x$. Por ejemplo, con un dado justo y $X$ representando "la puntuación de un lanzamiento del dado", diríamos $$P(X=1)=P(X=2)=P(X=3)=P(X=4)=P(X=5)=P(X=6)=\frac16$$ y ya está. Nuestro $X$ toma valores solo del conjunto finito $\Omega=\{1,2,3,4,5,6\}$.
También hay variables aleatorias con un número (contablemente) infinito de resultados posibles. Por ejemplo, si $Y$ representa "el número de lanzamientos de una moneda justa hasta que aparezca cara por primera vez", entonces $$P(Y=1)=\frac12, P(Y=2)=\frac14, P(Y=3)=\frac18,\ldots $$ El conjunto $\Omega$ de resultados posibles es ahora $\Omega=\mathbb N$.
Y finalmente hay variables aleatorias con un número incontable de resultados posibles (por ejemplo, dejemos que $Z$ represente "seleccionar un punto aleatorio de forma uniforme en el intervalo unitario $\Omega:=[0,1]$"). En estos casos, por lo general para cualquier valor individual $x\in\Omega$, la probabilidad $P(Z=x)$ es simplemente cero. En su lugar, tenemos probabilidad positiva solo si preguntamos por ciertos subconjuntos infinitos del espacio de resultados posibles $\Omega$. Por ejemplo, podemos decir con razón $P(\frac12< X<\frac23)=\frac16$. Sería bueno si pudiéramos asignar un valor de probabilidad a cualquier subconjunto $S\subseteq \Omega$. Sin embargo, por lo general resulta que esto no es posible de manera coherente o bien definida. Aun así, se seguirá esforzando en hacer que la colección de conjuntos $S$ para los cuales $P(X\in S)$ esté definido/definible sea lo más grande posible. Para nuestro ejemplo de $Z$, ciertamente podemos decir que $P(X\in S)=b-a$ si $S$ es un intervalo $[a,b]$ o $]a,b[$ o $]a,b]$ o $[a,b[$ con $0\le a\le b\le 1$. Especialmente, $P(X\in\emptyset)=0$ y $P(X\in\Omega)=1$. Además, si $A,B$ son disjuntos y $P(X\in A)$ y $P(X\in B)$ tienen sentido, entonces también tiene sentido $P(X\in A\cup B)$, a saber, con el valor $P(X\in A\cup B)=P(X\in A)+P(X\in B)$. De hecho, si tenemos conjuntos $A_1,A_2,\ldots$ y conocemos $P(X\in A_n)$ para cada $n$, entonces resulta ser aconsejable tener $$P(\bigcup_{n=1}^\infty A_n)=\sum_{n=1}^\infty P(X\in A_n).$$ Esto es casi el concepto de una $\sigma$-álgebra: es una colección de subconjuntos de un conjunto dado $\Omega$. Si tenemos suerte, como en el caso finito o el caso contable (al menos como ocurrió con la variable aleatoria $Y$ que definimos) esta colección es el conjunto de partes completo de $\Omega$, pero puede ser más pequeño. En cualquier caso, es lo suficientemente grande como para estar cerrado bajo ciertas operaciones, entre las cuales está la unión contable de conjuntos. Y esta propiedad es precisamente lo que nos permite formular las propiedades esenciales que queremos tener para las probabilidades de que una variable aleatoria esté en un subconjunto de $\Omega$. Cualquier función que asigne a cada elemento de una $\sigma$-álgebra dada (es decir, a cada subconjunto lo suficientemente agradable de $\Omega$) un valor entre $0$ y $1$ inclusivo, de modo que las reglas básicas como se han descrito anteriormente se cumplan para las uniones contables, complementos, el espacio completo, se llama entonces una medida de probabilidad.
Una medida importante es la medida de Lebesgue $\lambda$ en $[0,1]$ (que describe la variable aleatoria $Z$ anteriormente). Tal vez la conozcas por la teoría de la integración, donde nos permite generalizar (extender) la integración de Riemann. Por ejemplo, sabrás que el valor esperado de una variable aleatoria finita se da simplemente por $$\tag1E(X) = \sum_{x\in\Omega}x\cdot P(X=x) $$ o más generalmente, el valor esperado de una función de $X$ $$\tag2E(f(X)) = \sum_{x\in\Omega}f(x)\cdot P(X=x).$$ Estas son simples sumas finitas (por lo tanto, siempre funcionan) si $X$ es una variable aleatoria finita. Si $\Omega$ es contable, podemos usar las mismas fórmulas, pero tendremos series en lugar de sumas, y puede suceder que la serie no converja. Por ejemplo $E(Y)=2$, pero $E((-2)^Y)$ no converge. Se vuelve aún peor cuando $P(X=x)=0$ para todos $x\in\Omega$, ya que las sumas/series anteriores simplemente resultan en $0$. Las sumas/series simplemente se reemplazan con integrales correspondientes $$E(Z)=\int_0^1 x\,\mathrm dx =\frac12, \qquad E(f(Z))=\int_0^1 f(x)\,\mathrm dx.$$ Nuevamente, la segunda integral no tiene sentido para cada posible $f$, debe ser integrable.
El paso de la suma a (primero la serie y luego) integral puede parecer arbitrario, pero en realidad está bien fundamentado en teoría de la medida: a menudo se ajusta en la otra dirección y también se escriben series y sumas como integrales (con respecto a medidas específicas).
Todo esto aún puede no ser suficiente para comprender la fórmula que publicaste, pero debería ayudarte a comenzar con los textos introductorios que ya intentaste leer.