He hecho ese tipo de análisis varias veces. Suelo empezar por organizar los datos de manera que tengo una columna para cada uno de los elementos sociodemográficos, o básicamente cualquier cosa que no sean datos escalados. Las otras columnas son los ítems escalados tipo Likert.
También reescalaré los valores numéricos asociados a las respuestas para que tengan algún tipo de sentido: invierto la escala de los ítems que fueron codificados de forma inversa, y a veces cambiaré la propia escala (por ejemplo, 0-1-2-4 en lugar de 1-2-3-4) para que se ajuste a lo que se supone que mide el ítem. La muestra es probablemente demasiado pequeña para el análisis factorial exploratorio o para el nuevo chico guay de la ciudad de Likert, Análisis de clases latentes Así que tendré que trabajar con los valores numéricos de las respuestas.
Aquí dividiré mis datos en función de uno de los ítems no likert (por ejemplo, el género) y luego utilizaré una prueba estadística para comparar la suma de las respuestas, o de subconjunto de respuestas pertenecientes a un "constructo" o "dimensión" de la prueba. Mi arma preferida para datos extraños de muestras pequeñas es la prueba de Brunner-Munzel. Realmente no hay ninguna situación en la que una prueba U de Mann-Whitney sea mejor que una Brunner-Munzel ( ver este documento ), a menos que no tenga acceso a un Brunner-Munzel en su paquete estadístico de elección. El BM probará la dominancia estocástica del grupo A sobre el grupo B y, en su versión para R, dará como resultado un bonito intervalo de confianza y un tamaño del efecto en lenguaje común. Es una forma muy sencilla de mejorar la robustez del análisis a pesar de que los datos de la muestra sean pequeños. Esto podría permitirle, por ejemplo, comparar la satisfacción con el aprendizaje a distancia entre los estudiantes que poseen o no un coche. Tenga en cuenta que esto no probará una diferencia de medias, sino la probabilidad de que una persona al azar del grupo A tenga una puntuación diferente a la de una persona al azar del grupo B.
Otra opción común es dicotomizar los datos likert en sí mismos, por ejemplo, acuerdo frente a no acuerdo con la afirmación, satisfecho frente a no satisfecho, etc. Entonces se puede hacer un buen diseño 2 x 2 y probar la igualdad allí. Una simple prueba de proporciones podría servir (creo que una prueba t de las variables dicotómicas hará exactamente eso). Un ejemplo de pregunta de investigación sería: "¿Hay más estudiantes insatisfechos con la enseñanza a distancia que tienen coche?"
Otras cosas divertidas que se pueden probar son una matriz de correlación de los valores numéricos de los ítems, de las subpuntuaciones, con o sin la puntuación total en la mezcla. Es un pobre sustituto de la modelización psicométrica real para comprobar las propiedades de la prueba, pero puede conducir a resultados relevantes. Para ello, recomiendo utilizar las correlaciones de Pearson.