Estoy interesado en herramientas y técnicas que pueden ser utilizadas para el análisis de la transmisión de datos en "tiempo real"*, donde la latencia es un problema. El ejemplo más común de esto es, probablemente, los datos de precios de un mercado financiero, aunque también se produce en otros campos (por ejemplo, búsqueda de tendencias en Twitter o en las búsquedas de Google).
En mi experiencia, la más común categoría de software para esto es "el procesamiento de eventos complejos". Esto incluye software comercial como Streambase y Aleri o de código abierto, tales como Esper o Telégrafo (que fue la base para la Truviso).
Muchos de los modelos existentes no son adecuadas para este tipo de análisis debido a que son demasiado costosas computacionalmente. Son los modelos** específicamente diseñado para trabajar con datos en tiempo real? ¿Qué herramientas se pueden utilizar para esto?
* Por "tiempo real", me refiero a "análisis de datos ya que es creado". Así que no me refiero a "los datos que tiene sobre la base del tiempo de relevancia" (como en esta charla por Hilary Mason).
** Por "modelo", me refiero a una abstracción matemática que describe el comportamiento de un objeto de estudio (por ejemplo, en términos de las variables aleatorias y sus distribuciones de probabilidad), ya sea para la descripción o de previsión. Esto podría ser una máquina de aprendizaje o modelo estadístico.