En 2012 recogimos datos en nuestra universidad sobre la retención de los estudiantes del primer semestre al segundo, junto con algunas otras variables. La variable de retención es binaria, "retenido" o "no retenido".
En 2013 introdujimos un nuevo sistema. Se asignaron asesores de éxito estudiantil y cualquier estudiante, cuando lo necesitaba, podía acudir a ellos. Recogimos algunas variables nuevas asociadas a la introducción de los asesores de éxito estudiantil junto con las recogidas en 2012. Ahora, acudir a estos asesores no era obligatorio. Los que sentían un problema podían acudir a ellos.
Sólo con los datos de 2013 parece que los asesores empeoran las cosas: los estudiantes que ven lo hacen peor y tienen más probabilidades de abandonar la universidad. Probablemente solo los estudiantes que tenían problemas acudieron a los asesores y los que iban bien probablemente no lo hicieron. Si 10 estudiantes acuden a los asesores con problemas y 8 se mantienen en el segundo semestre, eso es seguramente un éxito. Pero si 80 de cada 100 estudiantes que no tenían ningún problema y, por tanto, no acudieron al asesor, se mantuvieron en el segundo semestre, las probabilidades de éxito serán similares a las de los que acudieron a los asesores, lo que indica que acudir a los asesores no tuvo un efecto significativo.
Parte del motivo fue un importante cambio de política que afectó a la forma en que las universidades de nuestro país acogían a los estudiantes. Antes de 2013 existía un "tope", un límite sobre el número de estudiantes que una universidad podía acoger y para el que esperaba financiación del gobierno. En 2013 se eliminó. Así, las universidades exitosas y deseables empezaron a abrir sus puertas a más estudiantes, y más estudiantes pudieron, de repente, entrar en universidades deseables. Nuestra universidad no es tan deseable. Así que lo que probablemente ocurrió fue que nuestra universidad se vio obligada en 2013 a aceptar estudiantes significativamente "peores", lo que bien podría llevar a una mayor dificultad de retención.
Lo que mis jefes piensan es que tenemos que ponderar los datos de 2012 para que coincidan con los de 2013 en algunas de las variables que pueden haber sido sensibles a la eliminación del tope de entrada de estudiantes (o ponderar los datos de 2013 para que coincidan con los de 2012). Entonces podemos comparar dos cohortes diferentes como si fueran un grupo de control adecuado el uno para el otro. De hecho, esto es ilusorio. Algunos sugirieron usar SPSSINC RAKE, pero no tengo ninguna idea de por qué.
Lo que queremos averiguar (a grandes rasgos) es si la introducción de los asesores, etc., funcionó, y el grado en que lo hizo.
0 votos
¿Ha considerado la posibilidad de realizar un emparejamiento de puntuaciones de propensión para los estudiantes de 2013?
0 votos
@Scortchi No tengo mucha idea de eso. ¿Podrías ayudar diciendo un poco más?