Muy bien, creo que ahora puedo terminar la prueba. Voy a demostrar que no hay identidades no triviales en $\mathbb{R}^d$ para cualquier $d$ . Esta prueba hace un uso intensivo de la primera parte del post de Terry Tao (reduciendo a identidades multilineales), pero usaré un argumento diferente para terminarla, ya que supongo que estoy más familiarizado y cómodo con los espacios vectoriales reales que con los grupos finitos. Debería ser posible completar la línea de argumentación de Terry para obtener una prueba para grupos finitos suficientemente grandes, que mi prueba no cubrirá. Además, como Theo señaló en un comentario a su respuesta, la deformación del dominio no lineal estropea la convolución mientras que deja las otras operaciones intactas, y debería ser fácil usar eso para demostrar que no se pueden mantener las identidades. En cualquier caso, este es un post de la wiki de la comunidad, así que cualquiera puede hacer adiciones o simplificaciones.
En primer lugar, por las observaciones de Terry Tao, basta con considerar las identidades multilineales de la forma $$c_1F_1(f_1,\ldots,f_n) + \cdots + c_kF_k(f_1,\ldots,f_n) = 0$$ donde cada $F_i$ es un "monomio multilineal", es decir, una composición de multiplicación y convolución en la que cada $f_1,\ldots,f_n$ aparece exactamente una vez. (La pregunta original no permitía la multiplicación escalar, pero no introduce ninguna dificultad). Para resumir el argumento: aplicando las leyes distributivas tanto como sea necesario y utilizando un argumento escalar fácil, basta con considerar identidades que son homogéneas en cada argumento, es decir, sumas de monomios en las que cada argumento aparece un número fijo de veces. Para reducir esto aún más al caso multilineal, supongamos que tenemos alguna identidad putativa de la forma $F(f_1,\ldots,f_m) = 0$ que es homogénea de grado $n_i$ sur $f_i$ para todos $i$ . Por el momento, considere $f_2,\ldots,f_n$ sea fijo, por lo que tenemos un grado homogéneo $n_1$ funcional $T(f_1)$ de $f_1$ . La identidad de polarización establece que si definimos un nuevo funcional $S$ por $$S(g_1,\ldots,g_{n_1}) = \frac{1}{n_1!}\sum_{E\subseteq \{1,\ldots,n\_1\}} (-1)^{n_1-|E|} T\big(\sum_{j\in E} g_j\big),$$ puis $S$ es una función multilineal (simétrica) de $g_1,\ldots,g\_{n_1}$ y $S(f_1,\ldots,f_1) = T(f_1)$ . Así, la identidad $F(f_1,\ldots,f_m)=0$ es equivalente a la identidad $G(g_1,\ldots,g_{n_1},f_2,\ldots,f_n) = 0$ , donde $G$ se obtiene de $F$ por la construcción de polarización aplicada en el primer argumento. Repitiendo la construcción para $f_2,\ldots,f_m$ obtenemos una identidad multilineal equivalente $H(g_1,\ldots,g_n)=0$ (donde $n=n_1+\cdots+n_m$ ).
Fijemos una nomenclatura para los monomios: que $C(f_1,\ldots,f_n)=f_1*\cdots*f_n$ y $M(f_1,\ldots,f_n)=f_1\cdot \cdots \cdot f_n$ . Un monomio es un Expresión C si la convolución es la operación de nivel superior o una Expresión M si la multiplicación es la expresión de nivel superior. $f_1,\ldots,f_n$ son expresiones atómicas y se consideran tanto expresiones M como expresiones C. Consideramos que dos monomios son idénticos si pueden obtenerse el uno del otro aplicando las leyes asociativa y conmutativa de la multiplicación y la convolución. Con esta relación de equivalencia, cada clase de equivalencia de monomios puede escribirse de forma única en la forma $C(A_1,\ldots,A_n)$ o $M(B_1,\ldots,B_n)$ (hasta permutar el $A$ s o el $B$ s), donde el $A$ son expresiones M y el $B$ s son expresiones C. Llegados a este punto, hemos hecho un uso máximo de las identidades algebraicas para el álgebra de convolución y el álgebra de multiplicación, por lo que ahora tenemos que demostrar que no hay ninguna identidad de la forma $$c_1F_1(f_1,\ldots,f_n) + \cdots + c_kF_k(f_1,\ldots,f_n) = 0$$ donde el $c_i$ son escalares no nulos y el $F_i$ son monomios multilineales distintos.
Para todos $a>0$ , dejemos que $\phi_a:\mathbb{R}^d\to \mathbb{R}$ sea la función gaussiana $\phi_a(x)=e^{-a\|x\|^2}$ . Vamos a probar si el $F_i$ son distintos y el $c_i$ son distintos de cero, entonces $$c_1F_1(\phi_{a_1},\ldots,\phi_{a_n}) + \cdots + c_kF_k(\phi_{a_1},\ldots,\phi_{a_n})= 0$$ no se puede mantener para todos $a_1,\ldots,a_n>0$ . Es fácil ver que $\phi_a\cdot\phi_b = \phi_{a+b}$ y $\phi_a*\phi_b = (\pi(a+b))^{d/2}\phi_{(a^{-1}+b^{-1})^{-1}}$ . Por lo tanto, si definimos $S(a_1,\ldots,a_n)=a_1+\cdots +a_n$ y $P(a_1,\ldots,a_n)=(a_1^{-1}+\cdots+a_n^{-1})^{-1}$ y $F$ es un monomio multilineal, entonces $F(\phi_{a_1},\ldots,\phi_{a_n}) = R_F(a_1,\ldots,a_n)^{d/2}\exp(-Q_F(a_1,\ldots,a_n)\|x\|^2)$ , donde $R_F$ es una función racional y $Q_F$ es una función racional compuesta por $S$ y $P$ . De hecho, si $F$ se escribe como una composición de $C$ y $M$ entonces $Q_F(a_1,\ldots,a_n)$ se obtiene de $F(\phi_{a_1},\ldots,\phi_{a_n})$ simplemente sustituyendo todos los $C$ s por $P$ s, el $M$ s por $S$ s, y $\phi_{a_i}$ por $a_i$ para todos $i$ . Por lo tanto, tiene sentido definir las expresiones P y S de forma análoga a las expresiones C y M. A Expresión PS sur $a_1,\ldots,a_n$ es una composición de $P$ y $S$ en el que cada uno de $a_1,\ldots,a_n$ aparece exactamente una vez. La equivalencia de las expresiones PS se define exactamente como para los monomios C/M; en particular, la equivalencia de las expresiones PS es aparentemente una condición más fuerte que la igualdad como funciones racionales.
El principal lema que necesitamos es que en realidad no es una condición más fuerte: si $F$ y $G$ son monomios multilineales distintos en $n$ argumentos, entonces $Q_F$ y $Q_G$ son funciones racionales distintas. En otras palabras, expresiones PS distintas definen funciones racionales distintas. (Obsérvese que esto es falso si se suprime el adjetivo "multilineal".) Para demostrarlo, primero hay que observar que aunque $Q_F$ y $Q_G$ se definen inicialmente como funciones $(0,\infty)^n\to (0,\infty)$ se extienden continuamente $[0,\infty)^n\to [0,\infty)$ . Si $D=\{i_1,\ldots,i_k\}$ es un subconjunto de $\{1,\ldots,n\}$ y $Q$ es una expresión PS en $n$ variables, entonces $D$ se llama principal implicado de $Q$ si $Q(a_1,\ldots,a_n) = 0 $ cuando $a_{i_1},\ldots,a_{i_k}$ son todos iguales a cero, pero ningún subconjunto adecuado de $D$ tiene esta propiedad. Dejemos que $I(Q)$ sea el conjunto de implicantes primos de $Q$ . Es fácil demostrar que $I(P(Q_1,\ldots,Q_m))$ es la unión disjunta de $I(Q_1),\ldots,I(Q_m)$ y $I(S(Q_1,\ldots,Q_m))$ es el conjunto de todos los $D_1 \cup \cdots \cup D_k$ , donde $D_i\in I(Q_i)$ . (Es importante aquí que ninguna de las variables $a_1,\ldots,a_n$ aparece en más de una $Q_i$ .) Definir el gráfico de implicación de $Q$ como el grafo no dirigido con vértices $1,\ldots,n$ y un borde entre $i$ y $j$ si algún implicante primo de $Q$ contiene tanto $i$ y $j$ . Es fácil ver que el grafo implícito de una expresión S está conectado, y si $Q_1,\ldots,Q_m$ son expresiones S, entonces las componentes conectadas del grafo implícito de $P(Q_1,\ldots,Q_m)$ son los gráficos implícitos de $Q_1,\ldots,Q_m$ . Esto implica inmediatamente que una expresión P no puede definir la misma función que una expresión S, por lo que basta con demostrar que distintas expresiones S inducen funciones racionales distintas, y que distintas expresiones P lo hacen. En realidad, basta con demostrar que distintas expresiones P definen expresiones distintas, ya que $P$ y $S$ se intercambian por la involución $\sigma(a)=a^{-1}$ : $\sigma(P(a,b))=S(\sigma(a),\sigma(b))$ . Que diferentes expresiones P inducen diferentes funciones se deduce ahora por inducción en el número de variables, ya que los conjuntos implicantes de las expresiones S $Q_i$ están determinados de forma única por el conjunto de implicantes de $P(Q_1,\ldots,Q_m)$ considerando la conectividad como en el caso anterior.
El resto de la prueba es fácil: si el $F_i$ son monomios multilineales distintos, entonces el $Q_{F_i}$ son funciones racionales distintas. Esto implica que para algunos $a_1,\ldots,a_n$ El $Q_{F_i}(a_1,\ldots,a_n)$ son todos números positivos distintos, ya que las funciones racionales distintas no pueden coincidir en un conjunto de medida de Lebesgue positiva. Para obtener una contradicción, supongamos que la $c\_i$ son todas distintas de cero y la identidad $\sum_i c_i F_i(f_1,\ldots,f_n)=0$ se mantiene. Entonces $$\sum_i c_i F_i(\phi_{a_1},\ldots,\phi_{a_n}) = \sum_i c_i R_{F_i}(a_1,\ldots,a_n)^{d/2} \exp(-Q_{F_i}(a_1,\ldots,a_n)\|x\|^2) = 0$$ para todos $x$ . Sin pérdida de generalidad, el $Q_{F_i}(a_1,\ldots,a_n)$ son crecientes en función de $i$ . Pero entonces para lo suficientemente grande $x$ el primer término domina a todos los demás, por lo que la suma no puede ser cero a menos que $c_1=0$ : una contradicción. Esto completa la prueba.