Como problema durante la introducción a la teoría de la medida, se me pide que demuestre lo siguiente.
Dejemos que $A \subset [0,1]$ tal que $A$ es medible con $\mu(A) = 0$ ( $\mu$ siendo la medida de Lebesgue). Demostrar que $A^c = [0,1] \setminus A$ es denso en $[0,1]$ .
Esto tiene un sentido intuitivo para mí $-$ desde $\mu(A) = 0$ , utilizando que $\mu(X) = \mu(X \cap A) + \mu(X \cap A^c)$ por cada $X \subseteq \mathbb{R}$ obtenemos $\mu([0,1]) = \mu(A) + \mu(A^c) = \{\mu(A)=0\} = \mu(A^c)$ . Así, $A^c$ tiene la misma medida que $[0,1]$ . Soy consciente de que esta no es la definición de $A^c$ siendo denso en $[0,1]$ sin embargo, y no sé cómo formalizar esta prueba.
Se agradecerá cualquier consejo.