lunes, 13 de noviembre de 2017

SPSS 25: Introducción a la correlación bayesiana

La correlación bayesiana no deja de ser una distribución, y con objeto de ilustrarlo hemos creado esta breve referencia en este blog, usando como base de datos un antiguo estudio de nuestro grupo de investigación en Psicología Criminal y Forense. Para ello hemos utilizado el SPSS 25  tanto para explorar los datos de forma gráfica como para realizar las correspondientes estadísticas bayesianas. 

domingo, 13 de agosto de 2017

Introducción a la simulación en IBM SPSS modeler

El paquete estadístico SPSS, comercializado por SPSS Inc. (adquirido por IBM en 2009), es una de las herramientas más frecuentes en el campo de investigación en las Ciencias Sociales. (Annapurna, 2017). Y entre los procedimientos más útiles se encuentra la simulación de datos ().

En la herramienta IBM SPSS modeler, nos encontramos con el nodo "Generar simulación" que nos permite, generar datos simulados, ya sea bien a partir de distribuciones estadísticas especificadas por el investigador o de datos reales. Siendo útil en este caso cuando se desea evaluar el resultado de un modelo predictivo en presencia de incertidumbre en las entradas de modelo. 

martes, 30 de agosto de 2016

Análisis factorial: Fiabilidad compuesta y varianza extraída

En el proceso de observación de los comportamientos humanos, uno de los aspectos esenciales es el proceso de cuantificación. Entendiendo este proceso de medición como las reglas que nos permiten asignar números a los procesos observados, de tal forma que representen de manera adecuada la cantidad del atributo que poseen” (Nunally & Berstein, 1994). Si bien estas reglas son evidentes en situaciones como la altura, peso o edad, esto ya no es tan claro (no son intuitivas) en propiedades como la personalidad o la inteligencia.

Para medir este tipo variables (constructos) es necesario crear (usar si ya existen) escalas de medida formadas por un conjunto de preguntas o frases (ítems) que permiten medir el nivel que alcanza una atributo determinado (extroversión, psicoticismo, capacidad verbal, capacidad espacial, etc.) que no es directamente observable en el sujeto sometido a observación (un alumno, una institución, un animal, etc.).
En la literatura clásica psicométrica, el alfa de Cronbach, nos indica la fiabilidad de un conjunto de indicadores para medir un constructo evaluado. En caso  de obtener mas de un constructo, en el análisis factorial desarrollado, este índice no es adecuado, ya que no tiene en cuenta la influencia que los otros constructos pueden tener sobre el medido. Es un estadístico sesgado (Dunn, Baguley & Brunsden, 2014).

sábado, 28 de mayo de 2016

Tamaño del efecto en tablas de contingencia mediante el SPSS

Siguiendo las recomendaciones de la APA (2009), vamos a ver brevemente como se obtiene el tamaño del efecto (a posteriori) en las tablas de contingencia, usando para ello el SPSS.

En primer lugar recordar que en las tablas de frecuencias (contingencia) la fuerza de asociación (tamaño del efecto), estamos contrastando si las variables están relacionadas (asociadas), y se suele hablar en la literatura de fuerza de asociación en lugar de tamaño del efecto.

Para medir el tamaño del efecto (fuerza de asociación) vamos a usar en SPSS las tres medidas de asociación más frecuentes, que recordemos son:
El coeficiente phi: cuando tenemos una tabla 2×2 varía entre 0 y 1 y tiene una interpretación similar a la r de Pearson (más correlación cuanto más cercano a 1). En tablas mayores es más difícil de interpretar, y no debe ser usado.
El coeficiente de contingencia: siempre varía entre 0 y 1 y se interpreta como la phi. El problema es que pocas veces alcanza el valor 1.
La V de Cramer: para tablas 2×2 coincide con la phi. Siempre varía entre 0 y 1, y en tablas mayores de 2×2 no tiene las restricciones del coeficiente de contingencia, puede alcanzar su valor máximo 1.

jueves, 5 de mayo de 2016

Tamaño del efecto en la prueba U de Mann-Whitney

Una alternativa clásica a la prueba de la t de Student, es la prueba no paramétrica conocida como U de Mann-Whitney (Mann-Whitney-Wilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney), y aplicada a dos muestras independientes, con datos a nivel de escala ordinal o intervalo/razón pero donde no se puede asumir normalidad. 

Es un procedimiento que es fácil de programar en sistemas como el SPSS, como podemos comprobar en el siguiente caso:

sábado, 12 de marzo de 2016

Métodos de Observación: Introducción al programa Animal Behaviour Pro

Entre las herramientas disponible en dispositivos IOS (Iphone & Ipad) para el registro observacional vamos a ver de forma breve la conocida como Animal Behaviour Pro. Creada como un registrador de datos flexible, durante la codificación en vivo de los comportamientos bajo condiciones de campo, de acuerdo a la linea de Altmann (1974). 

El elemento central del programa consiste en un esquema de codificación, formado por una lista de temas (donde todos los individuos que se pueden observar son actores o receptores de comportamiento). En este apartado aparecerán todos los comportamientos que se deseen grabar (etograma), y una lista de 'modificadores'  (calificadores de los patrones de comportamiento individuales). Se requiere además, en todos los comportamientos, especificar un objetivo cuando se crea (auto: el actor, otro: otro individuo, ó ninguno: sin objetivo). 

Recordar que cuando se codifican las conductas, debe ser un proceso mutuamente excluyente y exhaustivo. No obstante, la aplicación es compatible con el uso de los códigos que no se excluyen mutuamente, para aquellas situaciones particulares que se requiera. 

martes, 5 de enero de 2016

Odds ratio y Q de Yule en el SPSS

En el campo de la observación, es frecuente tener que cuantificar la asociación entre dos evaluadores, como medio de probar el grado de concordancia de sus registros, o bien el análisis secuencial de dos comportamientos.

Frecuentemente la recogida de información se simplifica mediante clasificaciones dicotómicas, de acuerdo al esquema general de la siguiente tabla, para evaluar la concordancia de investigadores:

Frecuencias para datos binarios de observación en dos investigadores
Observador 1 Observador 2
+ -
+ a b a + b
- c d c + d
a + c b + d Total

Mientras en el caso de un análisis secuencial, el formato sería:
Frecuencias para datos binarios de  dos comportamientos secuenciales
Comportamiento 1Comportamiento 2
+-
+aba + b 
-cdc + d 
a + cb + dTotal

domingo, 31 de mayo de 2015

Detección de series temporales anómalas en R: anomalous-acm

En las organizaciones, como puede ser una universidad pública, sus redes informáticas recopilan grandes cantidades de datos todos los días, y frecuentemente es necesario detectar en esas series de tiempo los comportamientos anómalos. Por ejemplo, en la monitorización de los servidores de páginas webs, del correo electrónico, de las aulas informáticas o de los profesores, una tarea común es identificar aquellas máquinas que se comportan de forma inusual. 

viernes, 17 de abril de 2015

Estimar Odds Ratio y los factores de confusión a través del SPSS

La asociación entre un comportamiento considerado problemático, y la exposición a un factor, es un análisis clásico (Herrero, 2015), y frecuentemente susceptible de confusión (relación espuria).
Supongamos el caso siguiente (estudio en el centro de Villabona dirigido por el doctor F.J.Rodríguez de la Universidad de Oviedo), donde se relaciona la reincidencia (comportamiento objetivo) con la exposición a niveles de ingresos bajos en la familia. Usando el SPSS obtenemos la siguiente tabla de frecuencias y su Odds Ratio (OR):
Como el OR es de 2,5 (Ingresos bajos/Ingresos medios altos), con un intervalo de confianza (IC) entre 1,28 y 4,99 (no contiene el 1), podemos asumir relación entre las dos variables estudiadas. Es decir, los ingresos familiares bajos son un factor de riesgo, a la hora de determinar un comportamiento de recidiva (reincidencia) en los sujetos internados en el centro de Villabona.

martes, 24 de marzo de 2015

Odds Ratio y Riesgo relativo en SPSS

En Metodología, frecuentemente usamos algoritmos para considerar una exposición (factor de riesgo) y determinar su relación al comportamiento problemático (por ejemplo , suicidio) . Son útiles a la hora de expresar una cantidad (magnitud) del riesgo de comportamiento problemático para las personas que son expuestas a determinados agentes (Herrero, 2015).

Supongamos como ejemplo los datos siguientes: 

El riesgo se expresa en modelos de probabilidad, de una exposición dada causando un comportamiento. Es decir, la probabilidad de comportamiento problemático en los expuestos con respecto a la probabilidad de comportamiento problemático en los que no han sido expuestos. A esto, se conoce como el riesgo relativo (RR). En nuestro ejemplo el valor es 3.3