Estaba leyendo el libro de Halmos "Teoría de la Medida" y me quedé atascada con éste. ¿Alguien podría darme una pista?
Deje que $A \in\mathbb {R}$ ser un conjunto medible de Lebesgue y $D$ un denso subconjunto de $A$ . Si $ \mu (A\, \triangle\ , A+d) = 0\;\; \forall d \in D$ donde $ \triangle $ denota una diferencia simétrica y $A+d$ es el conjunto resultante de sumar $d$ a cada uno $a \in A$ , debe ser que $ \mu (A) = 0$ o $ \mu (A^c) = 0$ .
He tratado de pensar en A como un intervalo abierto y luego usando las propiedades de la medida Lebesgue, también traté de aplicar el Teorema de Densidad Lebesgue, sin éxito.