Para facilitar la aritmética, utilicemos una CFL de 12 W. Supondré que está enchufada a la red eléctrica estadounidense, donde recibe un potencial constante de 120 V de la línea eléctrica. Eso significa que consume unos 100 miliamperios de corriente.
La mayoría de los disyuntores domésticos se disparan a unos 15 amperios de corriente. Suponga que tiene una bombilla (defectuosa, no lo hacen) que consume esta corriente máxima durante un segundo mientras se calienta. En el peor de los casos, la potencia de "calentamiento" es ciento cincuenta veces superior a la de "funcionamiento continuo". Pero la energía consumida durante ese calentamiento es superada por la energía de funcionamiento en estado estacionario al cabo de tres minutos. Así que si vas a estar fuera más de (en este ejemplo extremo) tres minutos, consumes menos apagando las bombillas.
Tengo un familiar que fue uno de los primeros en adoptar las CFL: tiene algunas de las primeras CFL que compró en el año 2000 más o menos que anunciaban "diez años de vida útil" y están en una habitación que se usa poco. Y esas bombillas son terribles. Tardan unos cinco minutos en calentarse, y durante el periodo de calentamiento la luz de las bombillas es demasiado tenue y del color equivocado. Supongamos que esas terribles bombillas consumen el doble de su corriente nominal durante esos primeros minutos (cosa que considero improbable). En ese caso, sigue siendo más barato apagar las bombillas si vas a estar fuera de la habitación más del doble del tiempo de calentamiento. Pero la otra característica de estas terribles bombillas es que el calentamiento es térmico: una vez que las bombillas están calientes, puedes apagarlas y volver a encenderlas y recuperan inmediatamente toda su luminosidad. Así que todavía ahorrar energía apagando brevemente la bombilla.
Para cualquier bombilla realista, creo que sales ganando desconectando la alimentación si vas a estar fuera de la habitación más de un par de minutos.