Hay una manera sencilla para calcular la expectativa de $R$, siempre y cuando uno hace mucho más preciso que el estocástico estructura de las muestras... es decir, la introducción de $Z_i=(X_i,Y_i)$, uno debe asumir que la secuencia de $(Z_i)_{1\leqslant i\leqslant n}$ es yo.yo.d. Y la varianza es otra, más complicada, la historia.
Introducir las variables aleatorias $S_n=X_1+\cdots+X_n$$T_n=Y_1+\cdots+Y_n$, por lo tanto $R_n=T_n/S_n$. Deje $\mathfrak X_n$ denotar la sigma-álgebra generada por $(X_i)_{1\leqslant i\leqslant n}$.
Para calcular la expectativa de $R_n$, tenga en cuenta que, para cada $i\leqslant n$, $E(Y_i\mid\mathfrak X)=E(Y_i\mid X_i)=aX_i$ por lo tanto $E(T_n\mid\mathfrak X_n)=aS_n$$E(R_n\mid\mathfrak X_n)=E(T_n/S_n\mid\mathfrak X_n)=E(T_n\mid\mathfrak X_n)/S_n=a$. En particular,
$$E(R_n)=a.
$$
En cuanto a la varianza, uno puede comenzar a partir de
$$
T_n^2=\sum_iY_i^2+\sum_{i\ne j}Y_iY_j
$$
y tenga en cuenta que, para cada $i\leqslant n$, $E(Y_i^2\mid\mathfrak X_n)=E(Y_i^2\mid X_i)=(b^2+a^2)X_i^2$ y, para cada $i\ne j$,
$$E(Y_iY_j\mid\mathfrak X_n)=E(Y_iY_j\mid \sigma(X_i,X_j))=E(Y_i\mediados de X_i)E(Y_j\mediados de X_j)=a^2X_iX_j.
$$
Este
implica
$$
E(T_n^2\mid\mathfrak X_n)=\sum_i(b^2+a^2)X_i^2+\sum_{i\ne j}^2X_iX_j=b^2\sum_iX_i^2+a^2S_n^2.
$$
Dividiendo por $S_n^2$, tomando las expectativas y utilizando el valor de $E(R_n)$, se obtiene
$$\text{Var}(R_n)=b^2\left(\frac{U_n^2}{S_n^2}\right),\qquad
U_n^2=X_1^2+\cdots+X_n^2.
$$
Esto reduce el $\text{Var}(R_n)$ a una expresión con (el valor de $b$ e) la distribución marginal de la $X_i$s solo, pero no hay una fórmula general para $\text{Var}(R_n)$ en términos de $n$, $a$ y $b$. La excepción es el caso de $n=1$ desde $U_1^2=X_1^2=S_1^2$ por lo tanto $\text{Var}(R_1)=b^2$.
Editar:
(1) Para cada $n\geqslant1$, $\text{Var}(R_n)=nb^2E\left(\dfrac{X_1^2}{S_n^2}\right)\geqslant\dfrac{b^2}n$.
(2) Si el $X_i$s son uniforme en un intervalo de $[0,x]$, a continuación, para cada $n\geqslant1$, $\text{Var}(R_n)=\dfrac{2b^2}{n+1}$.