35 votos

¿La convolución y la multiplicación satisfacen alguna identidad algebraica no trivial?

Para funciones (adecuadas) de valor real o complejo $f$ y $g$ en un grupo abeliano (adecuado) $G$ tenemos dos operaciones bilineales: la multiplicación - $$(f\cdot g)(x) = f(x)g(x),$$

y la convolución - $$(f*g)(x) = \int_{y+z=x}f(y)g(z)$$

Ambas operaciones definen estructuras de anillos conmutativos (posiblemente sin identidad) con la suma habitual. (Para que esto tenga sentido, tenemos que encontrar un subconjunto de funciones que sea cerrado bajo la suma, la multiplicación y la convolución. Si $G$ es finito, esto no es un problema, y si G es compacto, podemos considerar funciones infinitamente diferenciables, y si $G$ es $\mathbb R^d$ podemos considerar la clase Schwarz de funciones infinitamente diferenciables que decaen en el infinito más rápido que todos los polinomios, etc. Mientras nuestra clase de funciones no satisfaga ninguna identidad algebraica adicional no trivial, no importa cuál sea precisamente).

Mi pregunta es simplemente: ¿satisfacen estas dos estructuras de anillos conmutativos alguna identidad adicional no trivial?

Una identidad "trivial" es simplemente una consecuencia de las propiedades mencionadas anteriormente: por ejemplo, tenemos la identidad $$f*(g\cdot h) = (h\cdot g)*f,$$

pero eso se deduce del hecho de que la multiplicación y la convolución son operaciones semigrupales conmutativas por separado.

Editar: Para aclarar, una "identidad algebraica" aquí debe ser de la forma $A(f_1, ..., f_n) = B(f_1, ..., f_n)$ ," donde $A$ y $B$ se componen de las siguientes operaciones:

  • adición
  • negación
  • identidad aditiva (0)
  • multiplicación
  • convolución

(Técnicamente, una frase más correcta sería "para todos los $f_1, ..., f_n$ : $A(f_1, ..., f_n) = B(f_1, ..., f_n)$ pero el cuantificador universal siempre está implícito). Si bien es cierto que la transformada de Fourier intercambia la convolución y la multiplicación, eso no da identidades válidas a menos que puedas escribir de alguna manera la transformada de Fourier como una composición de las operaciones anteriores, ya que no te estoy dando la transformada de Fourier como una operación primitiva.

Edición 2 : Parece que lo anterior sigue siendo bastante confuso. Esta pregunta se refiere a las identidades en el sentido del álgebra universal. I piense en lo que realmente pido es la variedad generada por el conjunto de grupos abelianos dotados de las cinco operaciones anteriores. ¿Es diferente de la variedad de álgebras con 5 operaciones (operaciones binarias +, *, .; operación unaria -; operación nula 0) determinada por identidades diciendo que $(+, -, 0, *)$ y $(+, -, 0, \cdot)$ son estructuras de anillos conmutativos?

28voto

steevc Puntos 211

Creo que la respuesta a la pregunta original (es decir, ¿existen identidades algebraicas universales que relacionen la convolución y la multiplicación sobre grupos arbitrarios, más allá de las "obvias"?) es negativa, aunque establecerla rigurosamente va a ser tremendamente tedioso.

Hay que seguir un par de pasos. Para evitar tecnicismos vamos a restringir la atención a los campos finitos discretos G (para que podamos utilizar el álgebra lineal), y suponer que la característica de G es muy grande.

En primer lugar, dada cualquier supuesta identidad de convolución/multiplicación que relacione un grupo de funciones, se puede utilizar la homogeneidad y descomponer esa identidad en identidades homogéneas, en las que cada función aparece el mismo número de veces en cada término. (Por ejemplo, si uno tiene una identidad que implica tanto expresiones cúbicas de una función f como expresiones cuadráticas de f, se puede separar en una identidad cúbica y una identidad cuadrática). Así que sin pérdida de generalidad se puede restringir la atención a las identidades homogéneas.

A continuación, por despolarización se debería poder reducir aún más al caso de las identidades multilineales: identidades que implican un conjunto de funciones $f_1, f_2, ..., f_n$ con cada término siendo lineal en cada una de las funciones. (No he comprobado esto cuidadosamente, pero debería ser cierto, sobre todo porque podemos permitir que las funciones sean de valor complejo).

Es conveniente considerar simplemente la evaluación de estas identidades en el único punto 0 (es decir, identidades escalares en lugar de funcionales). En realidad, se pueden considerar las identidades funcionales como identidades escalares después de convolucionar (o tomar productos internos de) la identidad funcional con una función de prueba adicional.

Ahora (después de utilizar la ley distributiva tantas veces como sea necesario), cada término de la identidad multilineal consiste en alguna secuencia de aplicaciones de las operaciones de producto puntual y convolución (sin sumas ni restas), evaluadas en cero, y luego multiplicadas por una constante escalar. Cuando se expande todo eso, lo que se obtiene es una suma (en el caso discreto) del producto tensorial $f_1 \otimes ... \otimes f_n$ de todas las funciones sobre algún subespacio de $G^n$ . El subespacio exacto viene dado por la forma precisa en que se aplican los operadores de producto puntual y de convolución.

La única manera de que se mantenga una identidad universal, entonces, es si la suma ponderada de las funciones indicadoras de estos subespacios (contando la multiplicidad) desaparece. (Obsérvese que las combinaciones lineales finitas de productos tensoriales abarcan el espacio de todas las funciones sobre $G^n$ cuando $G$ es finito). Pero cuando la característica de $G$ es lo suficientemente grande, la única manera de que eso ocurra es que cada subespacio aparezca en la identidad con un peso neto de cero. (De hecho, hay que ver un subespacio de dimensión máxima en la identidad; para $G$ característica lo suficientemente grande, contiene puntos que no serán cubiertos por ningún otro subespacio en la identidad, y por lo tanto la única forma en que la identidad puede mantenerse es si el peso neto de ese subespacio es cero. Ahora elimine todos los términos que implican este subespacio e itere).

Así que lo último que hay que hacer es demostrar que un subespacio dado puede surgir de dos maneras diferentes a partir de la multiplicación y la convolución sólo de la manera "obvia", es decir, explotando la asociatividad de la multiplicación puntual y de la convolución. Esto parece posible mediante un argumento de inducción, pero no he intentado llevarlo a cabo.

13voto

Jon Galloway Puntos 320

La respuesta más breve es que sí, siempre y cuando te permitas un poco de álgebra lineal. Pero, de nuevo, has rechazado la respuesta de David, así que puede que no estés contento con la mía. Intentaré convencerte de que mi respuesta es a la vez trivial y profunda, y que no depende de más estructura que la que tú has permitido.

La respuesta corta

A efectos de mi respuesta, fingiré que el grupo $G$ es finito (no voy a pretender que sea abeliano, porque no necesito que lo sea). Hay versiones de lo que voy a decir para, al menos, grupos compactos y grupos algebraicos, pero surgen sutilezas que voy a ignorar. Sea $R$ sea el anillo de funciones sobre $G$ . Desde $G$ es finito, $R$ es de dimensión finita. (Si $G$ es algebraico, $R$ es como un anillo polinómico, y si $G$ es compacto, $R$ tiene una buena topología, y cualquier construcción debe ser completada. Esto es lo que quiero decir con "sutilezas").

El anillo de funciones sobre $G$ tiene un emparejamiento canónico no degenerado: $\langle f,g\rangle = \int fg$ . Al ser no degenerado, el emparejamiento tiene un "inverso", que es un elemento del producto tensorial $R\otimes R$ . Explícitamente, elija cualquier base ortonormal del emparejamiento, por ejemplo, la base $\{\delta_x: x\in G\}$ , donde $\delta_x(y)=1$ si $y=x$ y $0$ de lo contrario. Entonces la inversa es la suma sobre la base del cuadrado del tensor de cada elemento. Así que para mi base, es $\sum_{x\in G} \delta_x\otimes\delta_x$ . Pero hay que destacar que la inversa al emparejamiento no depende realmente de la base. Sin embargo, como no tengo una notación mejor, trabajaré en la base para mi respuesta. La mejor descripción es en términos de la notación de índice abstracto de los físicos, o de las pistas de Penrose.

Entonces la convolución y la multiplicación están relacionadas por lo siguiente:

$$\langle f_1\cdot f_2, f_3*f_4\rangle = \sum_{x_1} \sum_{x_2} \sum_{x_3} \sum_{x_4} \langle f_1, \delta_{x_1}*\delta_{x_2}\rangle \langle f_2, \delta_{x_3}*\delta_{x_4}\rangle \langle \delta_{x_4}\cdot\delta_{x_2}, f_3\rangle \langle \delta_{x_3}\cdot\delta_{x_1}, f_4\rangle $$

La respuesta larga

Dejemos que $X$ sea un conjunto (o más generalmente un "espacio"). Escriba $C(X)$ para el anillo de funciones sobre $X$ y $\mathbf k[X]$ para la colección de combinaciones lineales de puntos en $X$ . (Voy a escribir $\mathbf k$ para el campo de tierra; todo lo que digo funcionará sobre cualquier campo, pero puedes tomarlo como los reales o los complejos si quieres. El significado de la palabra "espacio" probablemente depende de tu campo de tierra).

¿Qué tipos de operaciones son? Bueno, $C()$ es un functor contravariante, y $\mathbf k[]$ es una covariante, tanto de la categoría de CONJUNTOS (o ESPACIOS) a la categoría VECT. Empecemos por $\mathbf k[]$ porque es covariante. En realidad es mejor que un functor: es un functor monoidal, lo que significa que si empiezas con un producto cartesiano terminas con un producto tensorial: $k[X\times Y] = \mathbf k[X\otimes Y]$ . En realidad, también lo es $C()$ Aunque si se trabaja con conjuntos no finitos hay que completar el producto tensorial. De hecho, estas dos operaciones están íntimamente relacionadas: para cualquier espacio $X$ , $C(X)$ es naturalmente (es decir, funcionalmente en $X$ ) el espacio dual a $\mathbf k[X]$ para que $C() = \mathbf k[]^*$ . Por lo tanto, básicamente podemos entender completamente $C()$ por la comprensión $\mathbf k[]$ o viceversa.

Dado que SETS (o SPACES) es cartesiano, cada objeto es un álgebra de una manera única. Voy a explicar esto. Un álgebra en una categoría monoidal es un objeto $X$ con un mapa de "multiplicación" $X \times X \to X$ que satisfacen varias condiciones. La palabra se elige para que en VECT, mi noción de álgebra y la suya coincidan. En SET, un álgebra es un monoide . De todos modos, un álgebra es lo que se obtiene al girar todas las flechas. Para intuirlo, piensa en VECT, donde una álgebra es cualquier estructura natural en el espacio vectorial dual a un álgebra. (Escribe el mapa de multiplicación como una gran matriz desde el cuadrado tensorial de tu álgebra a tu álgebra, y piensa en su transposición).

La estructura de álgebra canónica en un conjunto $X$ por cierto, está dada por el mapa diagonal $\Delta : X \to X \times X$ , donde $\Delta(x) = (x,x)$ .

Desde $\mathbf k[]$ es un functor monoidal, lleva álgebras a álgebras y álgebras a álgebras. Así, para cualquier conjunto $X$ el espacio vectorial $\mathbf k[X]$ hereda una estructura de álgebra. Así, dualmente, $C(X)$ hereda una estructura de álgebra (se puede decir esto directamente: un functor monoidal contravariante convierte las álgebras en álgebras). De hecho, esta es precisamente la estructura de álgebra canónica que está llamando "." en el anillo de funciones.

Bien, digamos ahora que $X$ es un álgebra en SETS, es decir, un monoide (por ejemplo, un grupo). Entonces $\mathbf k[X]$ hereda una estructura de álgebra, e igualmente $C(X)$ tiene una estructura de álgebra. Pero en realidad es un poco mejor que esto. Dado que cualquier conjunto es una álgebra de una manera única las estructuras algebraicas y coalgebraicas en $X$ llevarse bien. Voy a escribir $*$ para la multiplicación en $X$ . Entonces cuando digo "llevarse bien" lo que quiero decir es:

$$\Delta(x) * \Delta(y) = \Delta(x*y)$$

donde en el lado izquierdo me refiero a la multiplicación por componentes en $X \times X$ .

Bueno, $\mathbf k[]$ es un functor, por lo que preserva esta ecuación, excepto que la estructura de álgebra en $\mathbf k[X]$ no es trivial como $\Delta$ está en SETS. Cualquier cosa que sea a la vez una álgebra y un álgebra y que satisfaga una ecuación como la anterior es una bialgebra . Se puede comprobar que la ecuación se comporta bien bajo la dualización, de modo que $C(X)$ también es una bialgebra si $X$ es un álgebra.

Bien, ¿y cómo se relaciona todo esto con tu pregunta? Lo que ocurre es que para espacios suficientemente buenos, por ejemplo conjuntos finitos, existe una identificación canónica entre los espacios vectoriales $\mathbf k[X]$ y $C(X)$ para cualquier $X$ . Sin embargo, esta identificación rompe varias propiedades de funtorialidad. Pero de todos modos, si $G$ es un grupo finito, entonces podemos considerar $\mathbf k[G]$ y $C(G)$ para ser el mismo espacio vectorial $R$ y fingir que sólo tiene dos estructuras anulares separadas.

Pero al hacer esto se oculta la propiedad bialgebraica. Si sólo se me permite hacer referencia a las dos multiplicaciones, y no a sus mapas duales, entonces escribir la propiedad bialgebraica requiere referirse explícitamente al emparejamiento canónico (lo que llamé $\int = \langle,\rangle$ antes) y su inversa. Entonces la propiedad bialgebraica se convierte en la ecuación larga que escribí en la parte anterior.

Observaciones finales

También debo mencionar que un grupo no sólo tiene una multiplicación, sino también identidades e inversas. Éstas dan otra ecuación. En la base de la primera sección, la unidad en $R$ para $\cdot$ es la función $1 = \sum_{x\in G} \delta_x$ y la unidad de $*$ es $\delta_e$ , donde $e$ es la identidad en $G$ . Estos satisfacen la ecuación:

$$\delta_e \otimes 1 = \sum_{x_1} \sum_{x_2} (\delta_{x_1} * \delta_{x_2}) \otimes (\delta_{x_1} \cdot \delta_{x_2^{-1}})$$

donde ${x_2^{-1}}$ es el elemento inverso a $x_2$ . Deberías ser capaz de reconocer la inversa del emparejamiento canónico ahí. Una vez más, la ecuación es más sencilla en una notación mejor, por ejemplo, índices o pistas de pájaros, y no depende de la elección de una base. Una bialgebra que satisface una ecuación como la anterior es una Álgebra de Hopf .

Otra cosa que debo mencionar es que hay historias similares, al menos para los grupos compactos, pero hay que pensar más en lo que es "la inversa del emparejamiento canónico". (En un grupo compacto, hay un emparejamiento canónico de funciones, dado por la medida de Haar). De hecho, creo que se puede contar una historia como ésta para otros espacios, en los que se cambia lo que se entiende por $\mathbf k[]$ y $C()$ , en el primer caso ampliando la noción de combinación lineal y en el segundo restringiendo el tipo de función. Entonces deberías poner la palabra "cuasi" delante de todo, porque la estructura del álgebra, la inversa del emparejamiento, las unidades, etc., todo requiere completar tus espacios vectoriales.

Y puede haber ecuaciones especiales para grupos abelianos. En el terreno abeliano, la transformada de Fourier/Pontryagin hace lo siguiente: reconoce el anillo (ahora conmutativo) $\mathbf k[G]$ como un anillo de funciones sobre algún otro espacio: $\mathbf k[G] = C(G^*)$ .

Pero la moraleja general es que, en realidad, la convolución y la multiplicación tienen lugar en espacios vectoriales diferentes; lo que ocurre es que tienes un emparejamiento canónico que no permite distinguir los espacios. Y si insistes en mezclar los dos espacios, entonces deberías permitir el emparejamiento canónico y su inverso como operaciones algebraicas básicas.

13voto

Jake McGraw Puntos 16515

Muy bien, creo que ahora puedo terminar la prueba. Voy a demostrar que no hay identidades no triviales en $\mathbb{R}^d$ para cualquier $d$ . Esta prueba hace un uso intensivo de la primera parte del post de Terry Tao (reduciendo a identidades multilineales), pero usaré un argumento diferente para terminarla, ya que supongo que estoy más familiarizado y cómodo con los espacios vectoriales reales que con los grupos finitos. Debería ser posible completar la línea de argumentación de Terry para obtener una prueba para grupos finitos suficientemente grandes, que mi prueba no cubrirá. Además, como Theo señaló en un comentario a su respuesta, la deformación del dominio no lineal estropea la convolución mientras que deja las otras operaciones intactas, y debería ser fácil usar eso para demostrar que no se pueden mantener las identidades. En cualquier caso, este es un post de la wiki de la comunidad, así que cualquiera puede hacer adiciones o simplificaciones.

En primer lugar, por las observaciones de Terry Tao, basta con considerar las identidades multilineales de la forma $$c_1F_1(f_1,\ldots,f_n) + \cdots + c_kF_k(f_1,\ldots,f_n) = 0$$ donde cada $F_i$ es un "monomio multilineal", es decir, una composición de multiplicación y convolución en la que cada $f_1,\ldots,f_n$ aparece exactamente una vez. (La pregunta original no permitía la multiplicación escalar, pero no introduce ninguna dificultad). Para resumir el argumento: aplicando las leyes distributivas tanto como sea necesario y utilizando un argumento escalar fácil, basta con considerar identidades que son homogéneas en cada argumento, es decir, sumas de monomios en las que cada argumento aparece un número fijo de veces. Para reducir esto aún más al caso multilineal, supongamos que tenemos alguna identidad putativa de la forma $F(f_1,\ldots,f_m) = 0$ que es homogénea de grado $n_i$ sur $f_i$ para todos $i$ . Por el momento, considere $f_2,\ldots,f_n$ sea fijo, por lo que tenemos un grado homogéneo $n_1$ funcional $T(f_1)$ de $f_1$ . La identidad de polarización establece que si definimos un nuevo funcional $S$ por $$S(g_1,\ldots,g_{n_1}) = \frac{1}{n_1!}\sum_{E\subseteq \{1,\ldots,n\_1\}} (-1)^{n_1-|E|} T\big(\sum_{j\in E} g_j\big),$$ puis $S$ es una función multilineal (simétrica) de $g_1,\ldots,g\_{n_1}$ y $S(f_1,\ldots,f_1) = T(f_1)$ . Así, la identidad $F(f_1,\ldots,f_m)=0$ es equivalente a la identidad $G(g_1,\ldots,g_{n_1},f_2,\ldots,f_n) = 0$ , donde $G$ se obtiene de $F$ por la construcción de polarización aplicada en el primer argumento. Repitiendo la construcción para $f_2,\ldots,f_m$ obtenemos una identidad multilineal equivalente $H(g_1,\ldots,g_n)=0$ (donde $n=n_1+\cdots+n_m$ ).

Fijemos una nomenclatura para los monomios: que $C(f_1,\ldots,f_n)=f_1*\cdots*f_n$ y $M(f_1,\ldots,f_n)=f_1\cdot \cdots \cdot f_n$ . Un monomio es un Expresión C si la convolución es la operación de nivel superior o una Expresión M si la multiplicación es la expresión de nivel superior. $f_1,\ldots,f_n$ son expresiones atómicas y se consideran tanto expresiones M como expresiones C. Consideramos que dos monomios son idénticos si pueden obtenerse el uno del otro aplicando las leyes asociativa y conmutativa de la multiplicación y la convolución. Con esta relación de equivalencia, cada clase de equivalencia de monomios puede escribirse de forma única en la forma $C(A_1,\ldots,A_n)$ o $M(B_1,\ldots,B_n)$ (hasta permutar el $A$ s o el $B$ s), donde el $A$ son expresiones M y el $B$ s son expresiones C. Llegados a este punto, hemos hecho un uso máximo de las identidades algebraicas para el álgebra de convolución y el álgebra de multiplicación, por lo que ahora tenemos que demostrar que no hay ninguna identidad de la forma $$c_1F_1(f_1,\ldots,f_n) + \cdots + c_kF_k(f_1,\ldots,f_n) = 0$$ donde el $c_i$ son escalares no nulos y el $F_i$ son monomios multilineales distintos.

Para todos $a>0$ , dejemos que $\phi_a:\mathbb{R}^d\to \mathbb{R}$ sea la función gaussiana $\phi_a(x)=e^{-a\|x\|^2}$ . Vamos a probar si el $F_i$ son distintos y el $c_i$ son distintos de cero, entonces $$c_1F_1(\phi_{a_1},\ldots,\phi_{a_n}) + \cdots + c_kF_k(\phi_{a_1},\ldots,\phi_{a_n})= 0$$ no se puede mantener para todos $a_1,\ldots,a_n>0$ . Es fácil ver que $\phi_a\cdot\phi_b = \phi_{a+b}$ y $\phi_a*\phi_b = (\pi(a+b))^{d/2}\phi_{(a^{-1}+b^{-1})^{-1}}$ . Por lo tanto, si definimos $S(a_1,\ldots,a_n)=a_1+\cdots +a_n$ y $P(a_1,\ldots,a_n)=(a_1^{-1}+\cdots+a_n^{-1})^{-1}$ y $F$ es un monomio multilineal, entonces $F(\phi_{a_1},\ldots,\phi_{a_n}) = R_F(a_1,\ldots,a_n)^{d/2}\exp(-Q_F(a_1,\ldots,a_n)\|x\|^2)$ , donde $R_F$ es una función racional y $Q_F$ es una función racional compuesta por $S$ y $P$ . De hecho, si $F$ se escribe como una composición de $C$ y $M$ entonces $Q_F(a_1,\ldots,a_n)$ se obtiene de $F(\phi_{a_1},\ldots,\phi_{a_n})$ simplemente sustituyendo todos los $C$ s por $P$ s, el $M$ s por $S$ s, y $\phi_{a_i}$ por $a_i$ para todos $i$ . Por lo tanto, tiene sentido definir las expresiones P y S de forma análoga a las expresiones C y M. A Expresión PS sur $a_1,\ldots,a_n$ es una composición de $P$ y $S$ en el que cada uno de $a_1,\ldots,a_n$ aparece exactamente una vez. La equivalencia de las expresiones PS se define exactamente como para los monomios C/M; en particular, la equivalencia de las expresiones PS es aparentemente una condición más fuerte que la igualdad como funciones racionales.

El principal lema que necesitamos es que en realidad no es una condición más fuerte: si $F$ y $G$ son monomios multilineales distintos en $n$ argumentos, entonces $Q_F$ y $Q_G$ son funciones racionales distintas. En otras palabras, expresiones PS distintas definen funciones racionales distintas. (Obsérvese que esto es falso si se suprime el adjetivo "multilineal".) Para demostrarlo, primero hay que observar que aunque $Q_F$ y $Q_G$ se definen inicialmente como funciones $(0,\infty)^n\to (0,\infty)$ se extienden continuamente $[0,\infty)^n\to [0,\infty)$ . Si $D=\{i_1,\ldots,i_k\}$ es un subconjunto de $\{1,\ldots,n\}$ y $Q$ es una expresión PS en $n$ variables, entonces $D$ se llama principal implicado de $Q$ si $Q(a_1,\ldots,a_n) = 0 $ cuando $a_{i_1},\ldots,a_{i_k}$ son todos iguales a cero, pero ningún subconjunto adecuado de $D$ tiene esta propiedad. Dejemos que $I(Q)$ sea el conjunto de implicantes primos de $Q$ . Es fácil demostrar que $I(P(Q_1,\ldots,Q_m))$ es la unión disjunta de $I(Q_1),\ldots,I(Q_m)$ y $I(S(Q_1,\ldots,Q_m))$ es el conjunto de todos los $D_1 \cup \cdots \cup D_k$ , donde $D_i\in I(Q_i)$ . (Es importante aquí que ninguna de las variables $a_1,\ldots,a_n$ aparece en más de una $Q_i$ .) Definir el gráfico de implicación de $Q$ como el grafo no dirigido con vértices $1,\ldots,n$ y un borde entre $i$ y $j$ si algún implicante primo de $Q$ contiene tanto $i$ y $j$ . Es fácil ver que el grafo implícito de una expresión S está conectado, y si $Q_1,\ldots,Q_m$ son expresiones S, entonces las componentes conectadas del grafo implícito de $P(Q_1,\ldots,Q_m)$ son los gráficos implícitos de $Q_1,\ldots,Q_m$ . Esto implica inmediatamente que una expresión P no puede definir la misma función que una expresión S, por lo que basta con demostrar que distintas expresiones S inducen funciones racionales distintas, y que distintas expresiones P lo hacen. En realidad, basta con demostrar que distintas expresiones P definen expresiones distintas, ya que $P$ y $S$ se intercambian por la involución $\sigma(a)=a^{-1}$ : $\sigma(P(a,b))=S(\sigma(a),\sigma(b))$ . Que diferentes expresiones P inducen diferentes funciones se deduce ahora por inducción en el número de variables, ya que los conjuntos implicantes de las expresiones S $Q_i$ están determinados de forma única por el conjunto de implicantes de $P(Q_1,\ldots,Q_m)$ considerando la conectividad como en el caso anterior.

El resto de la prueba es fácil: si el $F_i$ son monomios multilineales distintos, entonces el $Q_{F_i}$ son funciones racionales distintas. Esto implica que para algunos $a_1,\ldots,a_n$ El $Q_{F_i}(a_1,\ldots,a_n)$ son todos números positivos distintos, ya que las funciones racionales distintas no pueden coincidir en un conjunto de medida de Lebesgue positiva. Para obtener una contradicción, supongamos que la $c\_i$ son todas distintas de cero y la identidad $\sum_i c_i F_i(f_1,\ldots,f_n)=0$ se mantiene. Entonces $$\sum_i c_i F_i(\phi_{a_1},\ldots,\phi_{a_n}) = \sum_i c_i R_{F_i}(a_1,\ldots,a_n)^{d/2} \exp(-Q_{F_i}(a_1,\ldots,a_n)\|x\|^2) = 0$$ para todos $x$ . Sin pérdida de generalidad, el $Q_{F_i}(a_1,\ldots,a_n)$ son crecientes en función de $i$ . Pero entonces para lo suficientemente grande $x$ el primer término domina a todos los demás, por lo que la suma no puede ser cero a menos que $c_1=0$ : una contradicción. Esto completa la prueba.

4voto

ColinYounger Puntos 2941

Simplemente sugiero reformular la pregunta de una manera que espero evite interpretaciones ambiguas: se pregunta por las identidades (en el sentido del álgebra universal, como las identidades (leyes) de los grupos, o las identidades polinómicas de los anillos) del álgebra (de nuevo, en el sentido del álgebra universal) definida en el conjunto de todos los mapas del grupo abeliano (fijo) G a R, sujeto a dos operaciones como las definidas anteriormente. No puedo evitar pensar que esto puede estar relacionado con la cuestión de las identidades polinómicas de los anillos de grupo, aunque esta relación es quizá demasiado superficial: la operación de convolución es similar a la multiplicación en el anillo de grupo (y, si G es finito, son esencialmente la misma). Por supuesto, si G es abeliano finito, entonces el anillo de grupo, al ser el álgebra conmutativa, satisface una identidad polinómica no trivial. Por lo tanto, debemos introducir de alguna manera la segunda operación . en el cuadro. Quizás las diversas generalizaciones de las identidades polinómicas consideradas en la literatura ("identidades generalizadas", identidades con elementos fijos, identidades en anillos con involución, etc.) podrían ser relevantes aquí.

3voto

Waldo Puntos 491

Llego tarde al hilo, pero quería mencionar rápidamente una identidad que aparece para las funciones separables. Aunque se trata de un primo cercano de tu identidad trivial y apenas tiene profundidad teórica, resulta ser muy útil en la práctica.

Tomemos $\mathrm{R}^2$ como ejemplo. Si $f(x,y) = f_1(x)\ f_2(y)$ y $g(x,y) = g_1(x)\ g_2(y)$ entonces

$$f * g = (f_1\ f_2) * (g_1\ g_2) = (f_1 * g_1)\ (f_2 * g_2).$$

He abusado un poco de la notación para destacar el parecido con la distributividad. Esta identidad se utiliza en un truco popular de procesamiento de imágenes que se describe aquí:

http://www.stereopsis.com/shadowrect/

Editado por un usuario anónimo : Esto no es cierto en general. Tome $$f_1=f_2=g_1=g_2=\Pi,$$ donde $\Pi$ denota la función rectangular, que es una en el intervalo $[-1/2,1/2]$ y cero en el resto. Entonces: $$(f_1\ f_2)*(g_1\ g_2)=(\Pi^2)*(\Pi^2)=\Pi*\Pi=\Delta\neq \Delta^2=(\Pi*\Pi)^2=(f_1* g_1)(f_2*g_2).$$ Aquí, $\Delta$ es la función triangular.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X