6 votos

¿Cuáles son las características que distinguen a la agrupación, los ciegos de la señal de separación y reducción de dimensionalidad?

En términos de input -> [process] -> output ¿cuáles son las características que distinguen a la agrupación, los ciegos de la señal de separación y reducción de dimensionalidad?

A partir de este artículo de la Wikipedia, la implicación es que hay dos tipos de supervisión de aprendizaje:

  • la agrupación; y
  • ciego separación de señal

Nunca he oído hablar de la palabra ciego separación de señal antes. En qué se diferencian de los clústeres y cómo la reducción de dimensionalidad en la base del presente?

4voto

Assad Ebrahim Puntos 939

Respuesta Corta: La agrupación y ciego de la señal de separación (SEV) a menudo se utilizan juntos en una aplicación, y cuando este es el caso, el BSS algoritmo viene primero como un pre-procesamiento de paso, con el fin de "reducir la dimensión del problema". El original de los insumos pueden entonces ser en consecuencia "corte" antes de ser alimentados en un algoritmo de clústeres de manera óptima el segmento de los ahora de orden inferior problema. Dado que las dimensiones se han reducido, el resultado de la agrupación en clústeres pueden ahora ser fácilmente visualizadas en 2 o 3 dimensiones.

En "input-[proceso]-salida", hemos vinculado, de tres pasos de filtro:

 input (high dimensional, mixed source) -> [Blind signal separation] ...
      -> ranking of features -> [Dimension reduction] -> lower dimensional inputs ...
            -> [Clustering] -> optimal segmentation.


Elaborar:

Supongamos que sus entradas son los vectores, es decir, cada uno de los puntos de datos / muestras tiene un número de atributos, decir $n$ de ellos.

Agrupación:

En términos simples, la agrupación se lleva las entradas, los considera en un $n$-dimensiones del espacio, y, dado un número de destino de los clusters, se ejecuta un algoritmo matemático para decidir cuál debe ser el centro de cada grupo y los puntos que deben ser asignados a pertenecer a la cual clúster.

Así que la agrupación es esencialmente matemática de la segmentación de los datos en grupos (óptima segmentación si se quiere).

Pero el reto con el uso de la agrupación en su cruda vector de entradas es que el algoritmo es tener que trabajar en $n$ espacio tridimensional, lo que significa que es difícil de visualizar, y, si muchos de los atributos están correlacionadas, entonces esas dimensiones extra no agregar mucho valor en el problema de la identificación de los mejores racimos.

Entrar en separación ciega de fuentes...

Separación Ciega De Fuentes:

Ciego separación de señal (SEV), por otro lado, es acerca de cómo separar una mezcla en sus componentes individuales.

De nuevo, en términos simples, supongamos que usted tiene un proceso que "mezcla" o confunde un número de pura señales en un agregado en su conjunto. Como un ejemplo, piensa en tomar una grabación de una serie de micrófonos situado en una orquesta hall, donde hay una serie de instrumentos tocando la misma melodía, pero donde también hay un poco de locales charlando entre el público. La grabación resultante es una mezcla de todo esto.

La pregunta en este caso es, a partir de la entrada mixto, y sin saber cómo la mezcla está compuesta, puede tomar la salida (de grabación) y separar el individuo vectores de entrada?

Así BSS es esencialmente un problema inverso en el cual se inicia con una mezcla de entrada y el intento de separar los distintos elementos que entraron en el proceso de mezcla.

BSS, Reducción de dimensiones, y la Agrupación:

Dije al principio que la agrupación y BSS a menudo se utilizan juntos. La razón por la que trae en el concepto de reducción de dimensionalidad.

La entrada en BSS se compone de la mezcla de las señales más ruido (no correlacionados, ruido blanco, por ejemplo, o baja correlación fuentes de poco interés).

BSS funciona mediante la identificación, de un número de 'funciones' acerca de las señales (expresiones matemáticas que involucran los atributos individuales de cada vector), las características que los 'explicar' la mayor variación en los datos.

Estas características pueden ser calificadas en orden descendente. Tomando las tres primeras características, por ejemplo, se llega a una mucho más manejable el número de dimensiones en la que se realiza la agrupación.

Un ejemplo típico y aplicación en el mundo real:

Así, en un ejemplo típico, que uno podría aplicar PCA (análisis de componentes principales), el cual es un tipo de BSS algoritmo -- a un conjunto de datos a "descubrir" el top 3 de las características que son más útiles en la explicación de la variación en el conjunto de datos y, a continuación, utilizar la matemática agrupación sólo en esos 3 características para identificar los segmentos en los que los datos se pueden dividir.

He visto esta combinación enfoque utilizado con mucho éxito en el problema de la clasificación no supervisada de aprendizaje) de la parte inferior orientada a sonar las señales para determinar automáticamente el tipo de fondo de mar que un buque que viaja a través de: barro, arena, rocas, sin tener que enviar un buceador para comprobar.

Así, cuando se utiliza en combinación, estas técnicas pueden llegar a ser muy poderosas herramientas.

3voto

Amadiere Puntos 5606

Que artículo de la Wikipedia es un desastre. No es de extrañar que haya sido etiquetada como la "limpieza" por más de dos años.

Si usted quiere aprender acerca de la agrupación, no acercarse a ella desde el aprendizaje de lado.

Para la máquina de aprendizaje lado, sin supervisión de aprendizaje es el patito feo que recurrir cuando no tienen la etiqueta de datos de entrenamiento. Pero no me gusta ni entiendo. Porque en realidad se trata de hacer algo muy diferente. Tenga en cuenta que la mayoría de los clústeres de trabajo se realiza fuera de la máquina de aprendizaje de la comunidad (pero en el descubrimiento de conocimiento en la comunidad), y ellos no lo llamaría sin supervisión de aprendizaje.

En el aprendizaje, tiene un objetivo. Desea por ejemplo, ser capaz de predecir el valor de futuras observaciones. El claro objetivo en particular, ayuda con la evaluación, sino que también se reduce el espacio de búsqueda mucho.

En el análisis de cluster, usted no tiene una estricta objetivo. Es un método de análisis que, por desgracia, con un gran espacio de búsqueda, así que hay un montón de heurísticas y suposiciones. Desea explorar sus datos, y aprender algo nuevo descubrir alguna nueva estructura en este caso. Si había un método de agrupación que brinda la estructura ya sabes, falló el objetivo de algún tipo. Sin embargo, esta es la forma en análisis de cluster a menudo se acercó y evaluado: puede descubrir la estructura que ya sabía?

La reducción de dimensionalidad es una técnica que uno preferiría ser capaz de evitar (ya que significa dejar caer algunas de sus datos), pero de mayor complejidad de los datos generalmente significa mucho peor tiempo de procesamiento. Y si no hay redundancia en los datos, es muy razonable para reducir la dimensionalidad de la primera.

Reducir el número de dimensiones hace que los datos manejable que no era manejable antes. También ayuda con la búsqueda de una adecuada función de distancia, a causa de la popular distancias tales como la distancia Euclídea no funcionan bien en datos de alta dimensión, debido a lo que se conoce como la "maldición de la dimensionalidad". Con el aumento de la dimensionalidad, las distancias en el conjunto de datos concentrarse y ser más similar. Como la mayoría de los algoritmos de agrupamiento basados en distancias, no logran encontrar cúmulos entonces, como la diferencia entre los objetos, se desenfoca. Hay varios aspectos que intervienen (recuerdo haber visto un artículo sobre como ~9 diferentes puntos de vista de ella!), pero ingenuamente se puede ver como una consecuencia del teorema del límite central. Dado suficientes dimensiones, la distancia se hace normalmente distribuida alrededor de la media y la varianza es en gran medida la cantidad de ruido que tienen a través de las dimensiones. Si hay demasiado ruido, las distancias son sólo determinado por el ruido (no de la señal) y sus algoritmos de fallar.

BSS yo no te puedo decir mucho acerca de. No ha sido en mi radar mucho. Yo recuerdo haber visto la idea básica exclusivamente en un análisis de audio de dominio (aislar a 4 voces de un 5 canales de audio de la señal, recuerdo algo acerca de la necesidad de n+1 micrófonos para aislar n voces basado en el retraso solo?) Definitivamente no es la técnica esencial de la supervisión de aprendizaje...

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X