Estoy tratando de entender esta prueba de los límites del ruido Laplaciano utilizado en un artículo sobre privacidad diferencial.
Dada una variable aleatoria $Lap\left ( \frac{\Delta f}{\varepsilon } \right )$, aparentemente la probabilidad de que el ruido Laplaciano sea mayor que $x$ está limitada por:
$\mathbb{P}\left [ \left | Lap\left ( \frac{\Delta f}{\epsilon } \right ) \right | > x \right ]= e^{-\frac{x \cdot \epsilon}{\Delta f}}$
La prueba para esto es que la variante a continuación de la desigualdad de Chebyshev "directamente" produce este resultado:
$\mathbb{P}\left [ \left | X - E\left [ X \right ] \right | \geq k^{2}\right ]\leq \frac{\sigma^{2}}{k^{2}}$
El artículo no lo explica, ya que debería ser muy obvio. No es obvio para mí. Esto es lo que he hecho hasta ahora:
$E\left [ X \right ]$ denota el valor esperado.
Si entiendo correctamente $E\left [ X \right ] = 0$ para
También creo que entiendo que $\sigma^{2} = \frac{2\cdot \left ( \Delta f \right )^{2}}{ \epsilon^{2}}$ para $Lap\left ( \frac{\Delta f}{\varepsilon } \right )$
Pero ¿cómo se llega de eso a esto: $e^{-\frac{x \cdot \epsilon}{\Delta f}}$??
Mi primer (y único paso):
$\mathbb{P}\left [ \left | Lap\left ( \frac{\Delta f}{\varepsilon } \right ) \right | \geq x\right ]\leq \frac{\frac{2\cdot \left ( \Delta f \right )^{2}}{ \epsilon^{2}}}{x}$
Aparentemente, el resto debería ser completamente obvio, pero estoy totalmente desconcertado.