Supongamos que tenemos $n$ observaciones $(x_1,y_1),\ldots,(x_n,y_n)$ de una regresión lineal simple $$ Y_i=\alpha+\beta x_i+\varepsilon_i, $$ donde $i=1,\ldots,n$ . Denotemos $\hat y_i=\hat\alpha+\hat\beta x_i$ pour $i=1,\ldots,n$ , donde $\hat\alpha$ y $\hat\beta$ son los estimadores por mínimos cuadrados ordinarios de los parámetros $\alpha$ y $\beta$ . El coeficiente de determinación $r^2$ se define por $$ r^2=\frac{\sum_{i=1}^n(\hat y_i-\bar y)^2}{\sum_{i=1}^n(y_i-\bar y)^2}. $$ Utilizando los hechos que $$ \hat\beta=\frac{\sum_{i=1}^n(x_i-\bar x)(y_i-\bar y)}{\sum_{i=1}^n(x_i-\bar x)^2} $$ et $\hat\alpha=\bar y-\hat\beta\bar x$ obtenemos \begin{align*} \sum_{i=1}^n(\hat y_i-\bar y)^2 &=\sum_{i=1}^n(\hat\alpha+\hat\beta x_i-\bar y)^2\\ &=\sum_{i=1}^n(\bar y-\hat\beta\bar x+\hat\beta x_i-\bar y)^2\\ &=\hat\beta^2\sum_{i=1}^n(x_i-\bar x)^2\\ &=\frac{[\sum_{i=1}^n(x_i-\bar x)(y_i-\bar y)]^2\sum_{i=1}^n(x_i-\bar x)^2}{[\sum_{i=1}^n(x_i-\bar x)^2]^2}\\ &=\frac{[\sum_{i=1}^n(x_i-\bar x)(y_i-\bar y)]^2}{\sum_{i=1}^n(x_i-\bar x)^2}. \end{align*} Por lo tanto, \begin{align*} r^2 &=\frac{\sum_{i=1}^n(\hat y_i-\bar y)^2}{\sum_{i=1}^n(y_i-\bar y)^2}\\ &=\frac{[\sum_{i=1}^n(x_i-\bar x)(y_i-\bar y)]^2}{\sum_{i=1}^n(x_i-\bar x)^2\sum_{i=1}^n(y_i-\bar y)^2}\\ &=\biggl(\frac{\sum_{i=1}^n(x_i-\bar x)(y_i-\bar y)}{\sqrt{\sum_{i=1}^n(x_i-\bar x)^2\sum_{i=1}^n(y_i-\bar y)^2}}\biggr)^2. \end{align*} Esto demuestra que el coeficiente de determinación de una regresión lineal simple es el cuadrado del coeficiente de correlación muestral de $(x_1,y_1),\ldots,(x_n,y_n)$ .
3 votos
Podría ayudar si define los términos de su pregunta. ¿Cuál es la ecuación de $R^2$ ¿en particular?
1 votos
Si por $R^2$ se refiere a la "varianza explicada", entonces stats.SE podría ser un sitio más adecuado para esta cuestión. Véase, por ejemplo, esta pregunta ou este para algunas ideas relacionadas con esto.