2 votos

Modelización del comportamiento humano con el modelo de Markov

Me gustaría modelar un proceso que no es realmente de naturaleza aleatoria: una secuencia de eventos de un comportamiento humano. Los datos serían tan escasos que capturar dos tipos de eventos para el mismo usuario en el orden correcto (que nos indicaría un determinado comportamiento) es muy raro, y para la mayoría de los usuarios tenemos que "extrapolar".

¿Puedo aplicar aquí la familia del modelo de Markov? Está pensada para modelar procesos aleatorios, mientras que este proceso no es aleatorio, sólo lo parecerá desde los datos accesibles.

La idea inicial era representar una cadena de estados de un usuario a medida que se acerca a la acción deseada.

Para describir brevemente la idea: Hay eventos de diferentes tipos que el usuario realiza, donde las mencionadas acciones de meta pueden ser también eventos que tuvieron lugar en el pasado. Si el usuario ha realizado un cierto número de eventos con una determinada frecuencia durante un periodo de tiempo, pasa al siguiente estado hacia el estado final de la meta. Si no hay eventos después, lo hacemos retroceder al estado anterior. Lo que queremos conseguir con este modelo es definir el momento adecuado para que la intrusión cambie el comportamiento del ser humano.

¿Existe alguna variación del modelo de Markov que se ajuste a esta descripción? ¿Quizás otro tipo de modelo se adapte a este caso?

1voto

Kuro Puntos 81

El hecho de que usted considere que el proceso que observa/modela "no es realmente aleatorio" no es un obstáculo. La teoría de la probabilidad se utiliza a menudo para describir los procesos como estocásticos aunque pueda haber un proceso determinista subyacente en el caso de que este proceso determinista sea muy complejo / de alta dimensión y, por lo tanto, no pueda ser modelado en detalle. De hecho, una de las escuelas de interpretación de la estadística (el bayesianismo) sostiene que no existe necesariamente algo "realmente aleatorio", y que la teoría de la probabilidad se ocupa de situaciones en las que no tenemos suficiente información para llegar a conclusiones definitivas. Por lo tanto, no veo ningún problema en utilizar un modelo de proceso estocástico en tu caso.

La cuestión de si un modelo de Markov es apropiado es más compleja. Las cadenas de Markov son lo primero que viene a la mente cuando se trata de transiciones entre estados discretos, y el comportamiento humano, en una determinada conceptualización, se ajusta a ello. Sin embargo, un Proceso de Markov también posee la propiedad de que es sólo el estado actual que tiene una influencia (estocástica) en el siguiente estado, pero ninguno de los estados anteriores la tiene (el llamado Propiedad de Markov ). Si este no es el caso, sino que la dependencia sólo se remonta a un número fijo y finito de estados anteriores, se puede considerar un Cadena de Markov de $n$ El orden , donde $n$ es el número de estados anteriores que ejercen una influencia. Si no tiene un buen argumento teórico de que su proceso posee la propiedad de Markov, puede probarlo o puede estimar el orden, pero esto puede requerir una gran cantidad de datos para funcionar correctamente.

Para comprobar la propiedad de Markov, véase, por ejemplo, Kullback, Kupperman, Ku (1962), "Tests for Contingency Tables and Markov Chains", Technometrics 4(4), 573-608, http://www.jstor.org/stable/1266291 .

Para estimar el orden de Markov, véase, por ejemplo, Csiszár y Shields (2000), "The consistency of the BIC Markov order estimator", Los Anales de Estadística 28(6), 1601-1619, http://www.jstor.org/stable/2673999 .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X