En algunos chips de 2,4 GHz, escuchar una señal es más caro que transmitir. Si uno trata de minimizar el consumo de energía con tales dispositivos, ¿hasta qué punto debe uno esforzarse por minimizar las transmisiones, y hasta qué punto debe uno estar dispuesto a hacer transmisiones adicionales en un esfuerzo por minimizar el tiempo de escucha? ¿Existe una "etiqueta" cuando se utilizan transmisiones no reguladas de baja potencia?
Por ejemplo, supongamos que queremos que dos dispositivos permanezcan "sincronizados" entre sí, pero no necesitamos que intercambien muchos datos. Ambos dispositivos han acordado un tiempo, +/- 1ms cada uno, en el que uno enviará al otro un paquete. Supongamos que la transmisión de un paquete tarda 100us; supongamos además que alimentar el transmisor durante 100us cuesta lo mismo que alimentar el receptor durante 100us, por lo que la potencia puede medirse en términos de tiempo activo de transmisión+escucha.
Un enfoque sería hacer que el receptor se encienda durante 2,1 ms y que el emisor envíe un paquete. El tiempo activo total sería de 2,2 ms. Otro enfoque sería hacer que el emisor enviara ciegamente cinco paquetes a intervalos de 0,5ms, y que el receptor escuchara durante 0,6ms. El tiempo activo total sería de sólo 1,1 ms, lo que supone un ahorro del 50%. Por otro lado, este último enfoque generaría cinco veces más tráfico de radio que el anterior, creando así más conflictos potenciales con los paquetes de otros dispositivos.
¿Deben los dispositivos tratar de minimizar las transmisiones innecesarias, o es aceptable dar prioridad a minimizar el uso de la batería?
EDICIÓN/aclaración
Mi pregunta no es cuál es la mejor manera de minimizar el uso de energía, sino hasta qué punto hay que tener en cuenta las externalidades negativas (costes sociales) de las transmisiones innecesarias. Si muchos dispositivos en la banda de 2,4 GHz transmiten a ciegas muchos más datos de los necesarios, con la esperanza de que algunos lleguen, eso perjudicará enormemente la utilidad de esa banda. Por otro lado, sería una tontería que el diseñador de un dispositivo aceptara un 10% más de consumo de energía para que sólo causara 0,1 puntos porcentuales de congestión en la banda de 2,4 GHz en lugar de 0,2, si los diseñadores de otros dispositivos que utilizan más ancho de banda no hacen esfuerzos similares. Mi intuición sería que tratar de evitar causar un 10% de congestión en una frecuencia si uno puede arreglárselas causando sólo un 5% sería bueno, aunque aumentara ligeramente el consumo de energía, pero reducir la congestión del 0,01% al 0,00001% -aunque sería una reducción mil veces mayor de la congestión- no valdría ni siquiera un aumento del 1% en el consumo de energía. Por otro lado, no sé dónde deberían estar las compensaciones, ni en qué escalas de tiempo debería medirse la congestión. Un dispositivo que transmita sólidamente durante un minuto cada hora, o uno que transmita durante 2us cada 120us, parecería más "odioso" que uno que transmita durante 100us cada 5ms, aunque los dos primeros tendrían un ciclo de trabajo de 1/60 y el último de 1/50.