3 votos

Efecto de exp(ϵ) en la definición de privacidad diferencial

Estoy leyendo sobre la privacidad diferencial y me gustaría entender las implicaciones de los diferentes valores de $\varepsilon$ en la definición que figura a continuación:

$$\mathbb{P}[K(D_1) \in \mathcal{S}] \leqslant \exp(\varepsilon) \times \mathbb{P}[K(D_2) \in \mathcal{S}]$$

¿Qué $0 < \varepsilon < 1$ , $\varepsilon > 1$ , $\varepsilon > 10$ etc., en términos de preservación de la intimidad?

2voto

kungfu Puntos 15

El siguiente gráfico cuantifica la cantidad de información que un atacante bayesiano puede obtener tras ver el resultado de un $\varepsilon$ -algoritmo diferencialmente privado, para diferentes valores de $\varepsilon$ . En $x$ -es la prioridad que el atacante tiene sobre alguna propiedad de su usuario objetivo, y el eje $y$ -eje es el posterior.

enter image description here

Esto responde en cierto modo a su pregunta:

  • Si $\varepsilon$ está muy cerca de $0$ un atacante casi no obtiene información.
  • Para $\varepsilon=1$ un atacante que comience con una prioridad del 50% puede aumentarla como máximo al 66%.
  • Para $\varepsilon=7$ el nivel de privacidad ya es muy bajo: en el peor de los casos, incluso un atacante con un pequeño conocimiento previo del 5% puede aumentarlo a más del 95%.

En entrada del blog del que procede el gráfico lo explica con más detalle.

1voto

Romain Puntos 95

Una más pequeña $\epsilon$ indica una mayor privacidad diferencial. En efecto, al intercambiar $D_1$ y $D_2$ ya ves $\epsilon$ -DP implica $$ e^{-\epsilon} \mathbb{P}(K(D_2) \in S) \le \mathbb{P}(K(D_1) \in S) \le e^{\epsilon} \mathbb{P}(K(D_2) \in S). $$ La limitación $\epsilon \to 0$ caso de esto es $\mathbb{P}(K(D_1) \in S) = \mathbb{P}(K(D_2) \in S)$ es decir, el sistema es perfecto desde el punto de vista estadístico.

El práctico nivel de privacidad que ofrece $\epsilon$ depende de la aplicación. Sin embargo, para la mayoría de las aplicaciones ( $\epsilon=10$ ¡)-DP no valdría mucho! (e^{-10} = 0.000045..)

0voto

Aaron Puntos 36

Con una manipulación algebraica básica de la desigualdad se pueden obtener algunas ideas. Reorganizando da:

$$\ln \mathbb{P}(K(D_1) \in \mathcal{S}) - \ln \mathbb{P}(K(D_2) \in \mathcal{S}) \leqslant \varepsilon.$$

En $\varepsilon$ -esta desigualdad es válida para todos los conjuntos de datos $D_1$ y $D_2$ que sólo difieren en un elemento, y todos los conjuntos $\mathcal{S}$ . Así, podemos ver que $\varepsilon$ representa un límite superior de la diferencia logarítmica entre las probabilidades de los sucesos $K(D_1) \in \mathcal{S}$ y $K(D_1) \in \mathcal{S}$ . Es decir, bajo $\varepsilon$ -diferencial privacidad el valor $\varepsilon$ da un límite superior a la diferencia logarítmica entre las probabilidades de que la salida del algoritmo de dos conjuntos de datos similares (que difieren en un elemento) caiga dentro de cualquier conjunto. Así que los rangos relevantes que está especificando para este valor están dando rangos de valores para los límites superiores de esta diferencia logarítmica.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X