2 votos

F - medida en Clustering

Podemos definir la medida F - de la siguiente manera:

$$F_\alpha=\frac{1}{\alpha \frac{1}{P}+(1-\alpha)\frac{1}{R}} $$

Ahora podríamos estar interesados en elegir un buen $\alpha$ . En el artículo La verdad de la medida F el autor afirma que se pueden elegir las condiciones:

$$\beta=\frac R P, \text{ where } \frac{\partial F_{\alpha}}{\partial P} = \frac{\partial F_\alpha}{\partial R}$$

y entonces obtenemos $\alpha=1/(\beta^2+1)$ y

$$F_\beta=\frac{(1+\beta^2)PR}{\beta^2 P+R} $$

Se dice que La motivación de esta condición es que en el punto donde los gradientes de $E$ por ejemplo $P$ y $R$ son iguales, la relación de $R$ contra $P$ debe ser una proporción deseada $\beta$ . Entiendo que la condición garantizará que el usuario esté dispuesto a cambiar un incremento en la precisión por una pérdida igual en el recuerdo. Pero no entiendo por qué la igualdad de ambas derivadas parciales corresponde a estas hipótesis. Preferiría entender cuando una derivada parcial es igual a la otra derivada parcial multiplicada por menos uno. ¿Alguien podría explicarme por qué la condición deseada (condición en palabras) se corresponde con esta igualdad (condición en términos matemáticos)?

EDITAR:

Podríamos hacer lo siguiente:

$$\partial F=\frac{\partial F_{\alpha}}{\partial P}\partial P+\frac{\partial F_\alpha}{\partial R}\partial R.$$

Y como queremos para $\partial P=-\partial R$ que $\partial F=0$ obtenemos fácilmente la condición.

Pero tengo un problema con esto: Desde $\left. \frac{\partial F_\alpha}{\partial P} \right/ \frac{\partial F_\alpha}{\partial R}=1$ y el hecho de que el gradiente es perpendicular a cada curva de nivel ( https://ocw.mit.edu/courses/mathematics/18-02sc-multivariable-calculus-fall-2010/2.-partial-derivatives/part-b-chain-rule-gradient-and-directional-derivatives/session-36-proof/MIT18_02SC_pb_32_comb.pdf ) tendríamos que la curva de nivel debe tener $m=-1$ . Sin embargo, cuando calculo la curva de nivel para alguna constante $c$ Obtengo el resultado,

$$R(P)=\frac{c(1-\alpha ) P}{P-c\alpha},$$

que claramente no es una función lineal con $m=-1$ . ¿Qué me falta?

1voto

Fallen Apart Puntos 847

Me quedaré con esta interpretación tuya, porque me parece muy razonable:

Entiendo que la condición garantizará que el usuario esté dispuesto a cambiar un incremento en la precisión por una pérdida igual en la recuperación.

Suponiendo eso, el problema es encontrar un parámetro $\alpha$ tal que

$$\frac{\partial F_\alpha}{\partial P} = \frac{\partial F_\alpha}{\partial R}$$

Ok, vamos a averiguar lo que el $\alpha$ debería ser.

Calculamos las derivadas parciales y obtenemos que $$\frac{\partial F_\alpha}{\partial P} = \frac{\alpha}{(\alpha \frac{1}{P}+(1-\alpha)\frac{1}{R})^2P^2} \quad \frac{\partial F_\alpha}{\partial R} = \frac{1 - \alpha}{(\alpha \frac{1}{P}+(1-\alpha)\frac{1}{R})^2R^2}$$

Por lo tanto, obtenemos que $$\frac{\alpha}{P^2}=\frac{1 - \alpha}{R^2}$$ Así, después de algunos cálculos, se obtiene que $$\alpha=\frac{1}{\beta^2+1},$$ donde denotamos $\beta = \frac{R}{P}$


Pero no entiendo por qué la igualdad de ambas derivadas parciales corresponde a estas hipótesis.

Para "entender" esto sólo hay que tener una idea de lo que indican las derivadas parciales. En su caso, si cambiamos $P$ a $P+\Delta P$ entonces el $F_\alpha$ aumentará (o disminuirá si esta derivada parcial es negativa) en $\Delta P \cdot \frac{\partial F_\alpha}{\partial P}$ . Del mismo modo, con respecto a $R$ . Así pues, la igualdad de las derivadas parciales significa precisamente que el mismo incremento de la precisión y el recuerdo resultará del mismo incremento de $F_\alpha$ .

Si mis explicaciones no son claras, hay muchos artículos sobre derivadas parciales que le ayudarán a desarrollar la intuición


Editar. Ok lo veo ahora mismo. Hay un error lógico en el que me he visto envuelto también. De nuevo, empezamos con la familia de funciones $F_\alpha$ parametrizado por $\alpha$ y deseamos encontrar tal $\alpha$ donde $$\frac{\partial F_\alpha}{\partial P} = \frac{\partial F_\alpha}{\partial R}$$

Suponemos que $\frac{\partial F_\alpha}{\partial P} = \frac{\partial F_\alpha}{\partial R}$ y obtenemos el $\alpha$ debe ser igual a $\frac{1}{1 + \beta^2}.$

Por lo tanto, sólo probamos una imputación:

$$\frac{\partial F_\alpha}{\partial P} = \frac{\partial F_\alpha}{\partial R} \implies \alpha = \frac{1}{1 + \beta^2}$$

Esto no significa que lo contrario también sea válido. Y no es así. De hecho, si calculamos $F_\alpha$ con este especial $\alpha$ conseguimos que

$$F_\alpha(P,R) = \frac{P^2 + R^2}{P + R}$$

y sus derivadas parciales difieren: $$\frac{\partial F_\alpha}{\partial P} = \frac{P^2 + 2PR - R^2}{(P + R)^2}\quad \frac{\partial F_\alpha}{\partial R} = \frac{- P^2 + 2PR + R^2}{(P + R)^2}$$

Conclusión: : En la familia $\{F_\alpha\}_\alpha$ hay no tal $\alpha$ para que $$\frac{\partial F_\alpha}{\partial P} = \frac{\partial F_\alpha}{\partial R}$$

Apéndice. En wolframio se pueden ver superficies niveladas. Son círculos: http://www.wolframalpha.com/input/?i=(x%5E2%2By%5E2)%2F(x%2By)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X