Suponga $\mathbf{x} \in \mathbb R_+^N$ con el apoyo $P=\{p_1,p_2,\cdots,p_K\}$ ($P$ se desconoce). Ya sabemos que $$f_1(\mathbf{x}) = f_2(\mathbf{x}) = \cdots = f_{N-1}(\mathbf{x})$$ donde $$f_l(\mathbf{x}) =\frac{ |DFT[x]|}{\sum_{i=0}^{N-1} x_i} =\frac{ |\sum_{i=0}^{N-1} x_i w^{il}|}{\sum_{i=0}^{N-1} x_i}, \qquad w:=e^{-j2\pi/N}$$
Este problema se compone de $2K$ incógnitas ($P$ y distinto de cero elementos de $\mathbf{x}$) y $N-2$ ecuaciones, por lo tanto, este es un determinado sistema de ecuaciones, y en general tiene Menos de la Plaza de la solución. Después de la evaluación de LS solución para muchos de los $(N,K)$ pares, me llegaron a estos resultados (hechos):
Para casi todos los casos, la solución para $P$ $P$(s) cuya Diferencia conjunto múltiple tiene varianza mínima. Donde la Diferencia conjunto múltiple de un punto se define un conjunto : $D = \{a_1,a_2,\cdots,a_{N-1}\}$ $a_d$ es el número de ocurrencias de $d = p_i-p_j \mod N, \quad i \ne j$
El $\mathbf{x}$ solución para todos los casos, fue una solución con cerca de cero elementos, es decir, ($x_i \approx x_j, i,j\in P$)
Esta figura muestra la LS solución para el $(N,K) = (20,7)$
Alguien le preguntó cómo he resuelto este problema. Para encontrar las mejores $P$ ($P$ conduce a menos error en LS solución) he utilizado la combinatoria de búsqueda y después de encontrar a $P$, el problema restante es un continuo de mínimos cuadrados que se pueden resolver utilizando muchos métodos de optimización, tales como el de Gauss-Newton, de Levenberg-Marquardt, ... .
Aquí es cómo $f_l(x^*)$ es distribuido por $l=0,1,\cdots,N-1$:
Mi pregunta es, cómo probar el primer hecho analíticamente o incluso intuitivamente?
Le pregunté en MO .