5 votos

Encontrar funciones que pueden invertirse a partir de sus sumas

Tengo la siguiente situación: $$ f_1(x_1) + f_1(x_2) + f_1(x_3) + \cdots + f_1(x_n) = c_1\\ f_2(x_1) + f_2(x_2) + f_2(x_3) + \cdots + f_2(x_n) = c_2\\ \vdots\\ f_n(x_1) + f_n(x_2) + f_n(x_3) + \cdots + f_n(x_n) = c_n $$ Estas fórmulas se evalúan en un vector determinado $\vec{x}$ , produciendo un vector $\vec{c}$ de constantes. Ahora, dado este vector $\vec{c}$ Quiero reconstruir el original $\vec{x}$ . Qué $f_i$ ¿que debo elegir que me permita hacer esto?

Hay dos limitaciones: $f_i$ está acotado en $(0,1)$ y $\left[f_i(x_j)=0\right] \rightarrow \left[x_j \in \{0,1\}\right]$ (y $f_i(x_j)$ es $0$ en al menos un punto).

Sin embargo, hay algunas suposiciones simplificadoras. Cada $x_i \in [0,1]$ y $\left[x_i=x_j\right] \rightarrow \left[\left[i=j\right] \vee \left[f_k(x_i)=f_k(x_j)=0\right]\right]$ . Además, el orden de los componentes de $\vec{x}$ es irrelevante (es decir, reconstruir cualquier permutación de $\vec{x}$ está bien).

Una solución de forma cerrada es ideal, pero una solución numérica que escale con gracia con $n$ también es aceptable. Soluciones parciales para $n \geq 4$ se aceptará si no hay un planteamiento general.


He intentado varias cosas, pero mi mejor intento hasta ahora es el más bien básico: $$ f_i(x_j) := x_j^{i} $$ Así que tenemos: $$ f_1(x_j) := x_j^1\\ f_2(x_j) := x_j^2\\ \vdots\\ f_n(x_j) := x_j^n $$ Visto así, cada ecuación representa una $n$ -dimensional supercuadrado . Para $n=2$ existe una forma cerrada (intersección de la línea con el cuadrante del círculo). Para $n=3$ , utilicé iteración Newton multidimensional . Sin embargo, para $n=4$ el solucionador no converge (o al menos tiene problemas numéricos).


La pregunta de nuevo: ¿Cuál es una buena elección de $f_i$ de manera que pueda reconstruir $\vec{x}$ dado $\vec{c}$ ?

0 votos

Casi parece que quieres una transformada de Fourier de valor real. (Excepto por la parte de la permutación).

0 votos

¿Para qué sirven tus etiquetas <sup>? En mi ordenador, sólo tienen el efecto de hacer el texto tan pequeño que es casi ilegible.

0 votos

No entiendo si las restricciones y los supuestos "simplificadores" hacen que este problema sea trivial o imposible. Tu intento abre algunos interrogantes extraños sobre lo que puedes/no puedes hacer. Me explico. Puede lo siguiente: $f_j(x_i) = x_i \delta_{ij}$ , donde $\delta_{ij}$ es el delta de Kronecker, ser utilizado? ¿Es compatible con sus restricciones? Su respuesta responderá a mis preguntas (no escritas).

1voto

fattire Puntos 716

La idea de establecer $f_i(x)=x^i$ en realidad funciona bastante bien:

Observación 1: El $n$ sumas $$c_i=\sum_{j=1}^n f_i(x_j)$$ con $1\leq i\leq n$ puede utilizarse para expresar todos los polinomios simétricos elementales $$e_k(\vec{x})=\sum_{\substack{A\subseteq \{x_1,x_2,\ldots,x_n\} \\ |A|=k}}\prod_{x\in A}x$$ con $0\leq k\leq n$ .

Observación 2: El polinomio $$P(X)=\prod_{i=1}^n (X-x_i)$$ puede expresarse utilizando estos polinomios simétricos elementales como $$P(X)=\sum_{k=0}^n (-1)^k e_k(\vec{x}) X^{n-k}$$

Observación 3: Las raíces del polinomio $P(X)$ son precisamente los números $x_i$ . Al ser un polinomio de una sola variable, sus raíces pueden obtenerse de forma explícita (para $n\leq 4$ ) o se puede utilizar cualquiera de los algoritmos numéricos con bastante facilidad (especialmente si todos ellos son distintos).

Algunos pequeños ejemplos de la observación 1 son los siguientes (tomando prestada la notación utilizada para $c_k$ y omitiendo el vector $\vec{x}$ en $e_k(\vec{x})$ ). $$\begin{eqnarray} e_1 & = & c_1 \\ e_2 & = & \frac{1}{2}\left(c_1^2-c_2\right)\\ e_3 & = & \frac{1}{6}\left(c_1^3-3c_1c_2+2c_3\right) \\ e_4 & = & \frac{1}{24}\left(c_1^4-6c_2c_1^2+3c_2^2+8c_3c_1-6c_4\right)\\ \end{eqnarray}$$

Puede parecer sorprendente a primera vista, pero las expresiones del lado derecho realmente no dependen del número de variables.

0 votos

+1 por enseñarme sobre SP elemental (y por ser el único que responde).¶ Así que la idea es calcular $\vec{c}(\vec{x})$ utilizando $f_i(x_j):=x_j^i$ y luego convertirlo en ESP con alguna función sencilla $\vec{e}:=\vec{g}(\vec{c}(\vec{x}))$ . Entonces podemos calcular los coeficientes de $P(X):=\sum\cdots$ . Entonces, como $P(X)$ también es $\prod (X-x_i)$ las raíces de $P(X)$ (encontrados numéricamente) son exactamente $\vec{x}$ . ¿Verdad? Si es así, creo que esto es sólo una permutación de lo que ya he probado. Si hace $P(X)$ mejor acondicionado ( $n\ge 4$ ), entonces sería una solución parcial aceptable. ¿Podría demostrarlo?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X