Estoy empezando con PoE (Power over Ethernet), y me gustaría utilizarlo para alimentar un dispositivo remoto ( Buffalo WHR-HP-G54 manual aquí ) que requiere 5 voltios y 2 amperios de CC (por tanto, 10 vatios, supongo).
Si mi inyector PoE es capaz de enviar a través del cable Ethernet, digamos, 15 vatios de potencia, ¿tal vez la atenuación de la señal (pérdida de potencia, o como sea la forma correcta de llamarlo, no sé mucho de electrónica) llega demasiado débil al destino y no es capaz de entregar los 10 vatios necesarios?
Por supuesto, creo que esto debe depender de la longitud y el tipo de cable Ethernet.
Esta pregunta se construye con ejemplos de datos con el fin de comprender los fundamentos de la pérdida de potencia para PoE.
Si es posible, me gustaría disponer de algún tipo de regla genérica para calcular dicha pérdida de potencia (tal vez en función de la longitud del cable, el tipo, etc.).
Ejemplos de reglas de cálculo:
- Cada 10 metros de cable UTP sin apantallar se pierde un 1% de potencia de los vatios máximos en origen (14,85W a los 10 metros, 14,7W a los 20 metros, 14,55W a los 30 metros, etc.).
- Cada 100 metros de cable blindado FTP se pierde un 5% de potencia (14,25W después de 100 metros, 13,5375W después de 200 metros, 12,860625W después de 300 metros, etc.).
Ejemplo real de inyector PoE (para quienes pretendan cálculos exactos):
- Revendedor: TP-Link
- Modelo: TL-POE150S
- Potencia Máx: 15,4 vatios
- Tensión: 48 VDC