En el curso que estoy leyendo, hay este ejemplo para mostrar que un bajo factor de potencia conduce a la más corriente, y por lo tanto más potencia perdida en las líneas de transmisión.
Asumir una cierta carga requiere de 1 kW para funcionar correctamente.
Si el factor de potencia fue de 0,9, y la fuente de alimentación da 110V, necesitaríamos 10A. Si el factor de potencia se 0,6, y la fuente de alimentación da 110V, necesitaríamos 15A.
Sin embargo, algo que aquí no tiene sentido. Si tenemos en cuenta el suministro de energía como una fuente de voltaje ideal, entonces el actual no tiene nada que ver con el poder.
Parece que él acaba de asumir la carga del sorteo de la potencia necesaria para funcionar correctamente, no importa qué.
Por otro lado, me parece que el actual sería la misma estancia, siendo afectada por la impedancia de la carga, lo que conduce a una menor poder real y por lo tanto un malfunctional de carga.
¿De dónde me salen mal?