¿Cuál es el límite del número de variables independientes que se pueden introducir en una ecuación de regresión múltiple? Tengo 10 predictores que me gustaría examinar en términos de su contribución relativa a la variable de resultado. ¿Debería usar una corrección de bonferroni para ajustar los análisis múltiples?
Respuestas
¿Demasiados anuncios?Cuando hay 120° entre fases la suma de los voltajes en cualquier momento será cero.
Esto significa que con una carga equilibrada no fluye corriente en la línea de retorno (neutro).
Además, si cada fase es de 230V con respecto al neutro (funcionamiento en estrella), entonces habrá 230V \$\times\$ \$\sqrt{3}\$ = 400V entre dos fases cualesquiera (funcionamiento en triángulo o delta), y también están igualmente espaciadas, es decir, en ángulos de 120°.
(imágenes de http://www.electrician2.com/electa1/electa3htm.htm )
A menudo observo esto desde el punto de vista de si es probable que un modelo ajustado con un cierto número de parámetros produzca predicciones fuera de la muestra que sean tan exactas como las predicciones hechas sobre la muestra original de desarrollo del modelo. Las curvas de calibración, los errores medios al cuadrado de X*Beta y los índices de discriminación predictiva son algunas de las medidas típicamente utilizadas. De aquí provienen algunas de las reglas generales, como la regla de 15:1 (un tamaño efectivo de muestra de 15 por parámetro examinado o estimado).
En lo que respecta a la multiplicidad, un ajuste perfecto para la multiplicidad, suponiendo que el modelo se mantenga y se cumplan los supuestos de distribución, es la prueba global de que todas las betas (aparte de la intercepción) son cero. Esto se prueba típicamente usando una razón de probabilidad o una prueba F.
Hay dos enfoques generales para la elaboración de modelos que tienden a funcionar bien. 1) Tener un tamaño de muestra adecuado y ajustarse a todo el modelo preespecificado, y 2) utilizar la estimación de máxima verosimilitud penalizada para permitir sólo tantos grados efectivos de libertad en la regresión como el tamaño de muestra actual permita. [La selección de variables por pasos sin penalización no debería jugar ningún papel, ya que se sabe que esto no funciona].
En principio, cualquier generador de energía tiene un rotor con magnetos y bobina en la periferia, una rotación del rotor es un ciclo de 360 grados.
Supongamos que el generador tiene un imán y una bobina, entonces a medida que el imán/rotor gira una vuelta, el voltaje generado en la bobina aumenta gradualmente y alcanza el pico (máximo) cuando la bobina se acerca al imán y se reduce gradualmente a medida que el imán se aleja.
Supongamos que conectamos la bombilla, entonces la tasa de parpadeo es claramente visible. Esto se llama 360 grados, CA monofásica.
Ahora, supongamos que el generador tiene dos imanes y dos bobinas colocados equidistantes, entonces la tasa de parpadeo se incrementa, es de 2 fases, 360/2=180 grados AC.
Digamos que el generador tiene 3 imanes y 3 bobinas colocadas equidistantes, entonces la tasa de parpadeo se incrementa mucho; es trifásico con 360/3=120 grados AC.
si tenemos 4 imanes y 4 bobinas colocados equidistantes, entonces la tasa de parpadeo es mucho mayor (no visible), entonces es de 4 fases con 360/4=90 grados, 4 fases AC.
En la práctica, la trifásica es mucho más adecuada para el diseño.
Reformularía la pregunta de la siguiente manera: Tengo $n$ observaciones, y $p$ predictores de candidatos. Supongamos que el verdadero modelo es una combinación lineal de $m$ variables entre las $p$ predictores de candidatos. ¿Hay un límite superior para $m$ (su límite), de tal manera que todavía puedo identificar este modelo? Intuitivamente, si $m$ es demasiado grande en comparación con $n$ o es grande comparado con $p$ puede ser difícil identificar el modelo correcto. En otros términos: ¿hay un límite para la selección de modelos?
A esta pregunta, Candes y Plan dan una respuesta afirmativa en su documento "Selección de modelo casi ideal por $\ell_1$ minimización" : $m \le K p \sigma_1/\log(p)$ donde $\sigma_1$ es el más grande valor singular de la matriz de predictores $X$ . Este es un resultado profundo, y aunque depende de varias condiciones técnicas, vincula el número de observaciones (a través de $\sigma_1$ ) y de $p$ al número de predictores que podemos esperar estimar.