Si una matriz $A$ es unitarily diagonalizable, entonces uno puede definir un "transformada de Fourier" para que $A$ es un "convolución" de la matriz.
Aquí es un ejemplo. Tenemos una familia $F$ de los subconjuntos de algunas conjunto finito $S$, es decir,$F \subset 2^S$, de tal manera que cualquiera de los dos conjuntos en $F$ está de acuerdo en algunos de coordenadas, es decir, para cualquiera de los dos $A,B \in F$, hay un elemento $x \in S$ que tampoco pertenece a los dos $A,B$ o a ninguna de las dos; llamamos a una familia $F$ acordando.
¿Qué tamaño puede tener una acordando de la familia de $F$? Claramente, se puede contener a más de la mitad de los conjuntos, ya que $A$ $S \setminus A$ no pertenecen a $F$. Por otro lado, para cualquier $x \in S$, la familia $$F = \{ A \subset S : x \in A \}$$ es un acordando de la familia que contiene exactamente la mitad de los conjuntos.
Aquí es otra prueba. Deje $F$ ser un acordando de la familia, y $f$ de su función característica. es decir, $f(A) = 1$ fib $A \in F$. Su transformada de Fourier se define por $$ \hat{f}(B) = 2^{-|S|} \sum_A f(A) (-1)^{|A \cap B|}. $$ The Fourier transform is really presenting the function $f$ in the orthonormal basis $$\chi_B(A) = (-1)^{|A\cap B|},$$ which is orthonormal with respect to the inner product $$\langle g,h \rangle = 2^{-|S|} \sum_A g(A) h(A). $$ The Fourier transform is defined so that $$f = \sum_B \hat{f}(B) \chi_B, $$ and so the formula for the transform can also be written $$\hat{f}(B) = \langle f,\chi_B \rangle;$$ esto funciona porque la base es ortonormales.
Un sencillo cálculo nos da que la $\hat{f}(\emptyset) = |F|/2^{|S|}$. Por otra parte, $$\langle f,f \rangle = \sum_{B,C} \langle \hat{f}(B) \chi_B, \hat{f}(C) \chi_C \rangle = \sum_B \hat{f}(B)^2,$$ again from orthonormality. Note that $$\langle f,f\rangle = \langle f^2, 1 \rangle = \langle f,\chi_\emptyset \rangle = \hat{f}(\emptyset),$$ where we used the fact that $f$ is $\{0,1\}$-valorado.
Considere ahora el operador $X$ que corresponde a la complementación, es decir,$$Xe_A = e_{S \setminus A},$$ where $ e_A$ is the vector which is $1$ only for the set $Un$. Another way to look at the operator $X$ is that it is convolution with $S$, where the group operation is symmetric difference (i.e. $\triángulo S = S \setminus$).
Un sencillo cálculo muestra que los vectores propios de a $X$ son exactamente las de Fourier base de vectores $\chi_B$:
$$ X \chi_B(A) = (-1)^{|(S\setminus A)\cap B|} = (-1)^{|S \cap B|} (-1)^{|A \cap B|} = (-1)^{|B|} \chi_B(A). $$
Esto no es sorprendente, ya que el $X$ es un operador de convolución para el grupo $\mathbb{Z}_2^{|S|}$, y la de Fourier base es una base de caracteres para que abelian grupo.
Dado que la familia $f$ está de acuerdo, $f(A)f(S\setminus A) = 0$, y así $$0 = \langle f,Xf \rangle = \sum_B (-1)^{|B|} \hat{f}(B)^2,$$ where we again used orthonormality of the Fourier basis. Denoting $|f| = |F|/2^{|S|}$, we have seen above that $$\sum_B \hat{f}(B)^2 = |f|, \quad \hat{f}(\emptyset)^2 = |f|^2.$$ So the even and odd squared Fourier coefficients balance; their total weight is $|f|$, and the weight of one of them is $|f|^2$. Evidently, $|f|^2$ can be at most half the total weight, and so $|f| \leq 1/2$.
Esta prueba puede parecer tonto (ya que nos presenta una "línea" de la prueba anterior), pero el mismo método puede ser usado para demostrar mucho más difícil de teoremas. Por ejemplo, podemos mirar una familia de "color", es decir, generalizar los dos colores anteriores (correspondiente a "no en el conjunto de" y "en el conjunto") a un número arbitrario de colores. La familia más grande es todavía obtenidos mediante la fijación de una coordenada, pero la combinatoria es la prueba más difícil (tarda alrededor de una página); la prueba de Fourier es casi el mismo.
Aquí están algunos de los más difíciles ejemplos:
- Familias de grafos durante un determinado conjunto de vértices, la intersección de dos cualesquiera de los cuales contiene un triángulo. El "mejor" de la familia se obtiene mediante la adopción de todas supergraphs de un triángulo fijo. La única prueba es muy similar métodos de Fourier.
- Las familias de las permutaciones, dos de los cuales tienen en común un "entrada/salida" de par. El "mejor" de la familia es, en general, obtenido mediante la fijación de la imagen de algún elemento (todas las permutaciones de tomar $i$$j$). No es un simple combinatoria prueba de que a lo largo de las líneas anteriores. Pero es mucho más difícil de probar que estos son los únicos óptimo de las familias, mientras que se sigue con relativa facilidad de la "transformada de Fourier" de la prueba. Por otra parte, este último puede ser extendido al caso en que las permutaciones están obligados a tener un $t$ que corresponde a la entrada/salida de los pares. Las "mejores" familias tome $t$ fijo entradas de a $t$ salidas fijas. La única prueba es espectral (se requiere la teoría de la representación de $S_n$).
- Las familias de subconjuntos de a $S$ del tamaño de la $k < |S|/2$, dos de los cuales se cruzan. La máxima de la familia es el mismo que el anterior (superseries de elementos fijos). Este es el célebre Erdős-Ko-Rado teorema. Hay una Fourier prueba con algunos beneficios adicionales sobre algunas de las combinatorias de las pruebas, a saber. se puede describir la estructura de casi óptima a las familias.
La transformada de Fourier de la prueba de el último ejemplo realmente optimiza algunos sesgada a la medida de un general de la familia de los subconjuntos, en otras palabras, en lugar de limitar los conjuntos de tamaño $k$, nos dan más relevancia a los conjuntos de tamaño aproximadamente el $k$. La prueba es como sigue:
- Encontrar algún producto interior, de modo que $\langle f,1 \rangle_p$ es la medida sesgada (que es$\mu_p(A) = p^{|A|} (1-p)^{|S\setminus A|}$$p \approx k/n$).
- Encontrar algunos "convolución " operador" $X$ tal que $\langle f,Xf \rangle_p = 0$ por cada intersección de la familia, y, además, los vectores propios de a $X$ son ortogonales con respecto al producto interior.
- Siga los mismos pasos que arriba a la conclusión de que la $\mu_p(f) \leq p$.
La construcción de la convolución operador $X$ utiliza fundamentalmente el hecho de que las matrices son simétricas unitarily diagonalizable (la simetría de la matriz en cuestión se obtiene a partir de una reversible de la cadena de Markov). El operador $X$ no es estrictamente unitarily diagonalizable, desde sus autovectores sólo son ortogonales con respecto a la desigual interior del producto (en el que la distribución estacionaria de la cadena de Markov cultivos), pero es obtenido a partir de dicha matriz a través de la escala de filas.
El material es tomado de una serie de artículos por Ehud Friedgut y amigos. Me voy a referir a ellos por sus actuales números en su lista.
- El método general (incluyendo el límite "de acuerdo a las familias de color sets") es #16.
- La aplicación a las permutaciones es el #2 (hay algunos papeles de seguimiento por David Ellis).
- La aplicación de los gráficos es #1.
- El espectro de la prueba de Erdős-Ko-Rado #7.
- La construcción en general (usando la propiedad crucial que las matrices son simétricas unitarily diagonalizable) es #6.
- La conexión entre el #7 y el #6 se explica en la última sección de #5.