Esta es una preocupación que muy rara vez todos se dieron cuenta. Para un tamaño moderado de la red neuronal cuya capas ocultas cada uno tiene $1000$ unidades, si la probabilidad de deserción escolar es el conjunto de a $p=0.5$ (el extremo más alto de lo que normalmente se usa), entonces la probabilidad de que todos los $1000$ unidades cero es $0.5^{1000} = 9.3\times10^{-302}$ que es una mente-bogglingly pequeño valor. Incluso para una pequeña red neuronal con sólo $50$ unidades en la capa oculta, la probabilidad de que todas las unidades es cero es $.5^{50}=8.9\times10^{-16}$ o menos de $\frac{1}{1\ \text{thousand trillion}}$
Así que, en resumen, esto no es algo que usted nunca necesita preocuparse de que en la mayoría de las situaciones del mundo real, y en las raras ocasiones en que esto sucede, usted podría simplemente vuelva a ejecutar el abandono paso para obtener un nuevo conjunto de caer pesos.
ACTUALIZACIÓN:
Cavar a través del código fuente para TensorFlow, me encontré con la implementación de la deserción aquí. TensorFlow no molesta incluso de contabilidad para el caso especial en el que todas las unidades son iguales a cero. Si esto llegara a ocurrir, la salida de la capa que va a ser simplemente cero. Las unidades no "desaparecen" cuando se caen, que acaba de tomar el valor de cero, lo que desde la perspectiva de las otras capas en la red está perfectamente bien. Pueden realizar sus operaciones posteriores en un vector de ceros tan bien como en un vector de valores distintos de cero.