Tome la distribución uniforme en $S=[0,1]$ . Ahora, $P[S]=1$ pero también $P[S\setminus \{1\}]=1$ y $P[S \setminus \{1,1/2,1/3,\ldots\}] = 1$ aunque estos dos últimos son subconjuntos estrictos de $S$ . (Aquí la notación $A \setminus B$ significa todos los elementos que pertenecen al conjunto $A$ y que no pertenece a $B$ .)
Para responder a la parte casi segura de su pregunta:
si P(A)=0 significa que el evento A casi nunca es posible y si P(A)=1 ocurrirá casi con seguridad.
Creo que lo has entendido mal: "casi seguro" se define como $P(A)=1$ .
Para comprender plenamente los entresijos y las sutilezas de las definiciones, es útil estar familiarizado con la teoría de las medidas. Véase, por ejemplo, el Conjunto Cantor que tiene medida ["longitud"] cero pero contiene un número incontablemente infinito de puntos, comparado con cualquier intervalo de la recta real $(a,b)$ que tiene de nuevo un número incontablemente infinito de puntos pero una medida no nula $b-a$ .
Dado que trabajas en estadística aplicada, estos complicados conjuntos son probablemente irrelevantes para ti, así que no me preocuparía por ello (¡es sólo algo que a los autores les gusta poner!).