Artículos Metodológicos o Técnicos

Estructura Factorial de la Escala de Riesgo de Violencia de Plutchik (ERVP): Propiedades psicométricas y diferencias en función a variables sociodemográficas en universitarios limeños

Factorial Structure of Plutchik’s Violence Risk Scale (PVRS): Psychometric properties and differences based on socio-demographic variables in university students of Lima.

Espinoza, María del Carmen
Universidad de Lima, Perú
Burga, Andrés
Universidad de Lima, Perú
Okumura, Alvaro
Universidad de Lima, Perú

Estructura Factorial de la Escala de Riesgo de Violencia de Plutchik (ERVP): Propiedades psicométricas y diferencias en función a variables sociodemográficas en universitarios limeños

Revista Argentina de Ciencias del Comportamiento, vol. 12, núm. 2, pp. 59-68, 2020

Universidad Nacional de Córdoba

Recepción: 28 Noviembre 2019

Aprobación: 21 Enero 2020

Resumen: Ante el incremento de los niveles de violencia ciudadana, resulta relevante adaptar instrumentos para identificar factores de riesgo en población juvenil. Por ello, el objetivo fue analizar las propiedades psicométricas de la Escala de Riesgo de Violencia de Plutchik (ERVP). Se realizó una adaptación lingüística de la versión española de la ERVP, ajustándola a la terminología local. Dicha adaptación fue examinada por ocho jueces. Se administró a 1052 universitarios limeños, entre los 16 y 37 años de edad. La unidimensionalidad permitió aplicar un modelo Rasch de Escala de Valoración de Andrich, considerando el funcionamiento diferencial de tres ítems en función al sexo. La confiabilidad se obtuvo a través del coeficiente omega, cuyo valor es de .70, 95% IC [.63, .77]. La ERVP cuenta con adecuadas propiedades psicométricas y es una buena alternativa para el tamizaje del riesgo de violencia en poblaciones similares.

Palabras clave: riesgo de violencia, tamizaje, universitarios, Rasch.

Abstract: Based on the current increase in levels of citizen violence, it is relevant to standardize instruments for identifying crime-related risk factors in youth population. Therefore, this work aims to analyze the psychometric properties of Plutchik’s Violence Risk Scale (PVRS). The PVRS Spanish version was linguistically adapted to local terminology, and subsequently examined by eight judges. It was administered to 1052 university students from Lima, who ranged from 16 to 37 years old. The exploratory factor analysis showed a single-factor structure, which differs from the three-factor Spanish version. It was applied the Rasch model of Andrich’s Rating Scale because of its unidimensionality, identifying sex differential functioning of three items. Reliability was obtained through coefficient omega, whose value was .70; 95% CI [.63, .77]. In conclusion, the PVRS has suitable psychometric properties and appears to be a good alternative to screen the risk of violence in populations similar to the one studied.

Keywords: risk of violence, screening, university students, Rasch.

Introducción

La presencia de conductas violentas a nivel mundial es cada vez más elevada (World Health Organization [WHO], 2014) y específicamente en Perú la violencia juvenil es uno de los principales problemas sociales que enfrenta el país y una de las formas más visibles de inseguridad ciudadana en la sociedad. Se está incrementando el pandillaje en adolescentes y los homicidios juveniles (Secretaría Nacional de la Juventud, Ministerio de Justicia y Derechos Humanos, & Universidad Privada del Norte, 2013) llegando hasta el feminicidio (Instituto Nacional de Estadística e Informática [INEI], 2018). Este fenómeno no excluye a los ambientes universitarios, donde además existe la presencia de conductas violentas con diferentes manifestaciones: física, burlas, insultos, marginaciones o denigraciones (Bernier & Males, 2017;Mc Evoy & Hideg, 2017;United Nations Children’s Fund, 2017).

Las conductas violentas tienden a presentarse de manera sistemática más que aleatoria, es decir, se produce una escala en su proceso de desarrollo desde la adolescencia hasta la edad adulta (Loeber, Ahonen, Stallings, & Farrington, 2017). Además, estudios de meta-meta-análisis muestran que el riesgo de violencia se relaciona con impulsividad, agresión y sobre todo se han hallado diferencias de sexo en su expresión (Duke, Smith, Oberleitner, Westphal, & McKee, 2018). Respecto a ello, ocurren con mayor prevalencia en varones adolescentes (Alcázar-Córcoles, 2007) y en varones en prisión (Warren, Wellbeloved-Stone, Dietz, & Millspaugh, 2018).

La evaluación del riesgo de violencia se basa en el axioma de que éste puede ser diagnosticado y medido con suficiente precisión, buscándose así promover la toma de mejores decisiones y cumplir con diversos objetivos ya sean psicológicos, sociales y/o legales (Sowden & Olver, 2017). Los instrumentos que se diseñen para su evaluación deben servir, según Glover, Churcher, Gray, Mills y Nicholson (2017) a los siguientes propósitos: primero, tener la capacidad de identificar los principales factores de riesgo, segundo, estimar el nivel del mismo producto de esa evaluación, tercero, proponer estrategias para reducir o manejar dicho riesgo y, finalmente, dichos resultados deben ser posibles de comunicarse de manera efectiva.

A la fecha, se requiere de una actualización de los instrumentos que evalúen el riesgo de violencia ya que los existentes están basados en necesidades provenientes de contextos específicos (Mills, 2017; Penney, Lee, & Moretti, 2010), están conceptualizados jurídicamente (Muñoz Vicente & López-Ossorio, 2016), y si bien reportan propiedades psicométricas adecuadas, se requieren análisis más específicos (Alcázar-Córcoles, Verdejo-García, & Bouso-Sáiz, 2016).

Si bien es evidente que durante las últimas décadas se ha intentado mejorar la precisión de las evaluaciones a nivel de prevención, los recursos para manejar el riesgo de violencia son limitados y hasta escasos, existiendo la preocupación de que los profesionales realicen interpretaciones de esos resultados de una manera para la cual no fueron creados (Evans & Salekin, 2016). Así, se plantea la necesidad de contar con instrumentos que permitan la predicción del riesgo a cometer conductas violentas (Muñoz Vicente & López-Ossorio, 2016), las formas de recidiva (Sowden & Olver, 2017) y con ello lograr tomar decisiones oportunas (Rosenfeld et al., 2017).

Aún más, después de realizar una revisión de la literatura donde se ponen en evidencia las diversas consecuencias por el incremento de situaciones violentas entre las personas, se plantea la necesidad de evaluar la predicción de la conducta violenta. Con este fin, resulta imprescindible contar con instrumentos que posean fundamentación psicológica y propiedades psicométricas actualizadas. Es importante recalcar que existen pocos instrumentos en el medio que consideren estas características desde un enfoque psicológico y por ende constituye un reto con fines de contribución a la comunidad.

Uno de los instrumentos que presenta estas propiedades psicométricas es la Escala de Riesgo de Violencia de Plutchik (ERVP). Se han realizado estudios empíricos con este instrumento (Alcazar-Córcoles, 2007; Álvarez Latorre et al., 2012), demostrándose su capacidad en la identificación de tendencias a la conducta violenta en adolescentes y jóvenes en países latinoamericanos y en España, mas no en Perú. Además, los autores de la prueba original, Plutchik y Van Praag (1990), no proveen suficiente evidencia empírica acerca de la unidimensionalidad del constructo por más que interpretan los resultados en base a un puntaje total obtenido a través de la suma simple de los puntajes de los ítems.

Ante ello, se plantea la necesidad de realizar un análisis técnico de dicha escala en población juvenil peruana, teniendo en cuenta que en Perú hay escasez de instrumentos validados para medir conductas violentas o el riesgo de presentarlas y conociendo que, en la realidad universitaria local, se han visto manifestaciones frecuentes de jóvenes con reacciones violentas. Por ejemplo, en el 2014, el 17.1% de mujeres entre 20 a 24 años y el 15% de mujeres de 25 a 29 años han sufrido de violencia física y/o sexual de parte de sus parejas en los últimos doce meses de realizado el estudio. Se observa, dentro de los responsables de dichos actos violentos que el 43% son personas de 29 años a menos, y en su mayoría hombres (Secretaría Nacional de la Juventud, 2015).

Por ello, el objetivo del presente estudio es analizar la estructura factorial, el ajuste a un modelo Rasch de escala de valoración, el funcionamiento diferencial de los ítems en relación al sexo y obtener la confiabilidad de las puntuaciones de la ERVP aportando con ello evidencias empíricas para su uso en la población universitaria peruana.

Método

Diseño

El propósito de este estudio es realizar un análisis psicométrico de la Escala de Riesgo de Violencia de Plutchik (ERVP) por lo cual se está empleando el diseño instrumental (Ato, López, & Benavente, 2013;Montero & León, 2002) que implica el diseño de pruebas psicológicas o la adaptación de las mismas.

Participantes

La muestra fue no probabilística accidental y estuvo conformada por 1052 participantes de diferentes carreras universitarias. El 46.2% fueron varones y el 53.8% mujeres, con edades comprendidas entre los 16 y 37 años (M = 20.56, DE = 2.38). La selección de los participantes se hizo teniendo en cuenta el tipo de gestión educativa en la que estuvieran cursando estudios siendo los tipos de gestión privada (50.8%) o pública (49.2%). De acuerdo a los estudios de simulación de Pearson y Mundform (2010), este tamaño de muestra es suficiente para instrumentos que se ajustan a un modelo de dos factores con cinco ítems por factor.

La participación de los estudiantes fue voluntaria, conservándose el anonimato de la información y obteniéndose el consentimiento informado previo a la aplicación del instrumento. Los cuestionarios fueron administrados en grupos medianos de 15 a 30 universitarios durante un período de diez meses.

Instrumento

La versión original Escala de Riesgo de Violencia de Plutchik (ERVP) data de 1976 cuando Plutchik, Climent y Ervin investigaron acerca de la violencia humana (como se citó en Plutchik & Van Praag, 1990). Para dicho estudio construyeron Feelings and Acts of Violence Scale-Short Form (PFAV) el cual contenía 12 ítems relacionados al sentimiento de violencia y agresividad en varias formas. En una muestra de 100 pacientes psiquiátricos, el coeficiente de consistencia interna derivado de las puntuaciones de esas aplicaciones fue de .77. Los estudios de validez reportados con una muestra de 157 pacientes psiquiátricos presentan una sensibilidad de 74% y especificidad del 70% para un punto de corte en 3. Todos los ítems del instrumento discriminan entre individuos violentos y no violentos.

En la versión española adaptada por Rubio et al. (1998), el instrumento consta de 12 ítems. Los primeros 11 ítems tienen una escala de respuesta de 0 a 3. El último ítem se puntúa entre 0 a 1. Se puede obtener entonces una puntuación entre 0 a 34. En cuanto a las propiedades psicométricas, se obtuvo un coeficiente de consistencia interna Alfa de Cronbach de .87 y un coeficiente de estabilidad a través del método test-retest de .90. Estos mismos autores plantean como punto de corte 4.

Posteriormente, con muestras también españolas y además latinoamericanas, se obtuvo información acerca de las cualidades psicométricas del instrumento (coeficiente de consistencia interna a través del Alfa de Cronbach de .782, evidencias de validez de estructura interna por medio del análisis de tres componentes principales con rotación varimax y baremos en función al sexo y continente) en 1035 participantes adolescentes de El Salvador, México y España (Alcázar-Córcoles et al., 2016).

Consideraciones Éticas

La ERVP es un instrumento de uso libre para profesionales en diferentes ámbitos relacionados a la salud y está puesta a disposición para su aplicación e interpretación tanto en atención primaria como atención especializada (Conselleria de Sanitat, 2006).

Resultados

Evidencias de validez vinculadas al contenido mediante criterio de jueces

En primer lugar, se inició con la adaptación lingüística de la versión española de la Escala de Riesgo de Violencia de Plutchik (Rubio et al., 1998;Conselleria de Sanitat, 2006;Alcázar-Córcoles et al., 2016). Se modificaron vocablos ajustándolos a la terminología local los cuales fueron revisados por un grupo de ocho jueces. Estos fueron psicólogos clínicos, educativos, sociales y especialistas en construcción de pruebas. A cada uno de ellos se le entregó una tabla de especificaciones que incluía la definición teórica y operacional del constructo y una matriz donde debían opinar en base a criterios de representatividad, relevancia y redacción de los ítems.

A partir de sus observaciones se estimó el coeficiente V de Aiken (Aiken, 1985). Los resultados sugirieron que el ítem 4 (Cuando se enfada, ¿coge un arma?) y el ítem 12 (¿Guarda o colecciona armas en su casa y sabe cómo utilizarlas?) no eran representativos para el contexto de la juventud universitaria peruana, por lo cual se tuvieron que retirar. Así también se hicieron modificaciones de redacción para la mejor comprensión de los enunciados. Los valores de la V de Aiken fueron estadísticamente significativos (p < .05) en los demás ítems (ver Tabla 1).

Tabla 1
Coeficiente V de Aiken para los ítems de la Escala de Riesgo de Violencia de Plutchik
ÍtemV
11.00*
21.00*
3.88*
4.75
51.00*
61.00*
7.88*
81.00*
9.88*
101.00*
11.88*
12.50
Nota * p < .05

Evidencias de validez vinculadas a la estructura interna mediante el Análisis Factorial Exploratorio (AFE)

El análisis factorial exploratorio se realizó con los 10 ítems que fueron aceptados según el criterio de jueces señalado en el punto anterior. Considerando que las respuestas a los ítems constituyen una escala ordinal, resulta más adecuado factorizar una matriz de correlaciones policóricas (Burga, 2006). Esta matriz contiene relaciones lo suficientemente fuertes entre los ítems para intentar aplicarles el análisis factorial, tal y como lo muestra el test de esfericidad de Bartlett con X2(45) = 1565.3, p < .001 y el índice Kaiser-Mayer-Olkin, cuyo valor fue de .75. Como método de extracción se aplicó el Mínimum Rank Factor Analysis (MRFA), el cual resulta útil porque permite estimar la cantidad de varianza común compartida extraída, produce estimaciones precisas de las cargas factoriales (Socan, 2003) y además permite aplicar una optimización del análisis paralelo para definir el número de factores (Timmerman & Lorenzo-Seva, 2011). Dicho método sugirió una solución unidimensional, la cual explica el 54.2% de la varianza común compartida. En la tabla 2, se observan las cargas factoriales obtenidas en el modelo unidimensional de la prueba.

Tabla 2
Ítems y cargas factoriales de la Escala de Riesgo de Violencia de Plutchik
ÍtemCarga factorial
1¿Se molesta con facilidad?.46
2¿Se enoja frecuentemente con los demás?.59
3¿Se enfurece sin motivo aparente?.55
5¿Ha herido a alguien mientras peleaba?.56
6¿Se ha ido a las manos alguna vez con algún familiar?.50
7¿Se ha ido a las manos alguna vez con alguien que no sea familiar suyo?.64
8¿Ha usado alguna vez un objeto para agredir a alguien?.70
9¿Podría conseguir un arma con facilidad?.49
10¿Cuántas veces ha sido usted detenido por actos no violentos, como por ejemplo irse de una tienda sin pagar o falsificar documentos?.59
11¿Cuántas veces ha sido usted detenido por actos violentos, como por ejemplo robo utilizando armas o agresión física a otros?.69

Confiabilidad

Se calculó a través del método de consistencia interna, utilizando el coeficiente omega asumiendo datos categóricos (Dunn, Baguley, & Brunsden, 2014). El valor del coeficiente omega fue estimado en .70; IC 95% [.63, .77].

Ajuste a un modelo Rasch de escala de valoración

Se ajustó un modelo Rasch de escala de valoración de Andrich, que asume que todos los ítems tienen la misma escala de valoración y la misma estructura de umbrales que separan cada una de las categorías de respuesta (Bond & Fox, 2015). El análisis fue realizado mediante el método de estimación conjunta de los parámetros de los ítems y personas denominado Joint Maximum Likelihood Estimation (JMLE), que tiene como ventaja no asumir ninguna forma específica sobre la distribución del rasgo latente medido en las personas evaluadas (Baker & Kim, 2004).

Como producto de dicho análisis se pudo observar que los ítems 8 y 9 no mostraron un buen ajuste del modelo, pues sus valores infit u outfit escapan al rango recomendado de 0.6 a 1.4 (Wright & Linacre, 1995), por lo cual no fueron usados en análisis posteriores. Los demás ítems mostraron un adecuado ajuste al modelo, con valores infit y outfit dentro del rango deseado.

El siguiente paso implicó analizar el funcionamiento diferencial de los ítems según sexo, considerando p < .01. Los resultados de dichos análisis aparecen en la tabla 3.

Tabla 3
Funcionamiento diferencial de los ítems (FDI)
ÍtemFDI – medidase.e.tp
10.4200.1054.01< .001
20.0680.1100.62.534
30.6440.1265.12< .001
5-0.2700.120-2.26.024
60.3230.1362.37.018
7-1.5560.140-11.10< .001
100.1250.1630.76.446
11-0.3560.400-0.89.374

Los ítems 1, 3 y 7 presentan funcionamiento diferencial según sexo, por lo cual fueron calibrados de forma independiente para ambos grupos, obteniendo finalmente las siguientes medidas de los ítems e indicadores de ajuste (ver Tabla 4).

Tabla 4
Ajuste de los ítems al modelo de Andrich según el funcionamiento diferencial de los ítems
ÍtemSexoMedidaErrorInfitOutfit
1.1Varones0.9420.0770.930.92
1.2Mujeres0.5390.0720.820.79
2General1.4190.0550.720.71
3.1Varones3.1160.0941.221.11
3.2Mujeres2.4920.0851.080.97
5General2.4010.0601.141.09
6General3.3640.0691.181.23
7.1Varones2.4320.0871.000.97
7.2Mujeres4.0410.1111.161.16
10General4.2690.0821.131.01
11General6.9240.1941.050.94

Estos ítems mostraron una estructura ordenada de los umbrales Rasch-Andrich, lo cual implica que todas las categorías de respuesta han sido modales para alguna cantidad del rasgo latente que busca medirse (Adams, Wu, & Wilson, 2012). Concretamente, los valores obtenidos para los umbrales de la escala de valoración fueron: -2.60, 0.63 y 1.97. Finalmente se estimó la confiabilidad de las medidas mediante el índice de confiabilidad de separación de las personas (Bond & Fox, 2015), el cual mostró un valor igual a .65.

Discusión

El objetivo principal de la presente investigación fue analizar las propiedades psicométricas de las medidas derivadas de aplicar la Escala de Riesgo de Violencia de Plutchik. Ello es necesario ya que se trata de una población en la cual no ha sido utilizado con anterioridad el instrumento y por ende no se pueden asumir las propiedades psicométricas reportadas en estudios antecedentes. Al respecto, autores como Traub y Rowley (1991) y Haertel (2006) proponen que la confiabilidad no es una característica del test, sino que depende de las condiciones de administración y del grupo de personas evaluadas. Una situación similar ocurre con las evidencias de validez, que deben ser recolectadas cada vez que se utilicen los resultados de un test de una forma distinta o en una población diferente (American Educational Research Association [AERA], American Psychological Association [APA], & National Council of Measurement in Education [NCME], 2014).

Si bien en la investigación original en la cual se elabora este instrumento, desarrollada por Plutchik y Van Praag (1990), se utiliza el puntaje total, como si se tratara de una medida unidimensional, los autores no proveen ninguna evidencia empírica de ello. Por eso, esta investigación viene a cubrir una carencia encontrada en el estudio original. Esta búsqueda de evidencias de validez vinculadas a la estructura interna ya ha sido realizada en investigaciones anteriores. Por ejemplo, Alcázar-Córcoles (2007) postula una estructura de tres dimensiones a las que denomina Detenciones y Uso de Armas de Fuego, Peleas y Enfado. Una estructura similar de tres factores aparece en el estudio de Alcázar-Córcoles et al. (2016).

En la presente investigación, los resultados del análisis factorial exploratorio no apuntan hacia una solución satisfactoria de tres factores por lo cual es importante señalar que hay algunos elementos que podrían explicar dicha diferencia. En primer lugar, las investigaciones antecedentes no han utilizado el análisis factorial propiamente, sino el análisis de componentes principales, el cual constituye una técnica distinta que no supone la existencia de un factor común subyacente a las variables. Su objetivo es la reducción de los datos mediante el uso de las combinaciones lineales de las variables originales que expliquen la mayor parte de la variación total (Bandalos & Boehm-Kaufman, 2009; Costello & Osborne, 2005; Park, Dailey, & Lemus, 2002).

Lo mencionado no necesariamente tiene un efecto importante en el número de dimensiones, pero es necesario señalar que el análisis de componentes principales resulta incompatible con los modelos de variables latentes que asumen un rol causal desde la variable latente hacia los indicadores (ítems) que constituyen un instrumento de medición (Bollen & Bauldry, 2011). Por ello se postula que el modelo de análisis aquí asumido es pertinente.

Por otro lado, en los trabajos antecedentes se utilizó como criterio para definir el número de factores, el tener componentes con autovalores superiores a 1. Al respecto, existen algunos trabajos empíricos en los cuales se critica ampliamente este criterio, pues tiende a sobreestimar el número de factores (Costello & Osborne, 2005;Timmerman & Lorenzo-Seva, 2011), motivo por el cual han aparecido técnicas, que han demostrado un mejor funcionamiento para establecer la cantidad de factores a retener. Entre esas técnicas se puede destacar el análisis paralelo, aplicado con el método de implementación óptima desarrollado por Timmerman y Lorenzo-Seva (2011), el cual ha sido utilizado en la presente investigación.

Finalmente, debe considerarse que en las investigaciones antecedentes no se señala el tipo de matriz de correlaciones que ha sido analizada. Es posible que se haya seguido la práctica regular de utilizar una matriz de correlaciones de Pearson. El problema con ello, es que ese tipo de correlaciones asume un nivel de medición de intervalo o razón, además de una relación lineal entre variables (Chen & Popovich, 2002). Al factorizarse una matriz de correlaciones entre respuestas a ítems, estos supuestos usualmente no se cumplen, pues se tratan de escalas ordinales, con relaciones no lineales. Por ello, considerando que las respuestas a los ítems constituyen una escala ordinal, resulta más adecuado, tal y como se hizo en la presente investigación, factorizar una matriz de correlaciones policóricas (Burga, 2006). De este modo se evita ajustar un modelo lineal que no estima correctamente los parámetros poblacionales, atenuando muchas veces las cargas factoriales (Stucky, Gottfredson, & Panter, 2012).

Por otro lado, debe resaltarse la importancia de la solución unidimensional hallada en la presente investigación. Si bien no existe una unidimensionalidad absoluta, en general, un conjunto de ítems puede ser considerado unidimensional si las correlaciones entre ellos pueden ser explicadas por un factor común (Netemeyer, Bearden, & Sharma, 2003). Es decir, se la define en términos de la dependencia estadística entre los ítems, la cual puede ser explicada sobre la base de un rasgo latente dominante (Crocker & Algina, 2008).

De forma típica, el puntaje de un test se calcula sumando las puntuaciones obtenidas en los ítems individuales la cual es interpretada como la cantidad del constructo latente que caracteriza a la persona evaluada (Furr & Bacharach, 2013).

Si un investigador usa un puntaje compuesto, desde un punto de vista conceptual, es deseable que esa suma de los puntajes de los ítems sea unidimensional (Netemeyer et al., 2003). La razón es claramente ilustrada por Wu, Tam y Jen (2016), quienes señalan que un puntaje compuesto sólo cobra sentido si los ítems que lo componen están midiendo lo mismo. Siguiendo con el ejemplo de dichos autores, ellos señalan que, si un puntaje compuesto tiene diferentes dimensiones, dos puntuaciones iguales obtenidas por diferentes personas no son directamente comparables, pues en un caso podría implicar que puntúa alto en el rasgo latente A y bajo en B, y en el otro caso que puntúa bajo en A y alto en B. En ese sentido, tal y como lo señala Zumbo (2007), la unidimensionalidad es importante porque permite interpretar un puntaje compuesto como un continuo. Por ello se puede interpretar las puntuaciones derivadas de este instrumento como un continuo, en el que valores mayores implican mayores cantidades del rasgo o atributo latente que es el objeto de medición. Además, la solución unidimensional aquí encontrada explica un porcentaje de varianza similar (alrededor del 55%) al encontrado en las investigaciones antecedentes de Alcázar-Córcoles (2007) y Alcázar-Córcoles et al. (2016).

Otro argumento a favor de la unidimensionalidad de una medida tiene que ver con que muchos índices de confiabilidad tradicionalmente utilizados sólo tienen sentido cuando son aplicados a datos unidimensionales (Viladrich, Angulo-Brunet, & Doval, 2017; Zumbo, 2007). Por ejemplo, en las investigaciones antecedentes se utilizó el Alpha de Cronbach, que además del supuesto de unidimensionalidad, asume que la medida es esencialmente tau-equivalente, lo cual no se cumple en la práctica cuando los ítems tienen varianzas distintas (Dunn et al., 2014). Este supuesto también es incumplido cuando las cargas factoriales de los ítems son diferentes, por lo cual se prefiere utilizar otros coeficientes como el omega (Viladrich et al., 2017), el cual fue utilizado en la presente investigación, hallándose un valor de .70 (IC 95% [.63, .77]).

En cuanto al uso del modelo Rasch de escala de valoración, tal y como señalan Bond y Fox (2015), éste asume la unidimensionalidad, supuesto que se cumple en los datos analizados. Como resultado, se observó un buen ajuste en ocho ítems considerándose además el funcionamiento diferencial según sexo en tres de ellos. Estos ítems han sido calibrados con medidas separadas lo cual lleva a una comparación más justa cuando se contrastan mujeres con varones.

Una gran ventaja en cuanto al uso de modelos Rasch es que, si bien los puntajes directos derivados de aplicar un test son esenciales para construir medidas, no son medidas por sí mismos (Wright & Linacre, 1989). Este modelo logra construir una escala de intervalo gracias a sus distintas propiedades matemáticas (Wright & Linacre, 1987) lo cual constituye una gran ventaja pues muchas técnicas estadísticas paramétricas asumen que, los datos tienen un nivel de medición por lo menos de intervalo. Es decir, utilizar una medida de intervalo, como la derivada de un modelo Rasch, implica que las técnicas estadísticas realmente se están aplicando a datos métricos, estando en concordancia con los supuestos en cuanto al nivel de medición, lo cual lleva a una correcta interpretación de los resultados obtenidos.

Finalmente, respecto a las diferencias de sexo, éstas se han identificado en patrones emocionales (ítems 1 y 3) y conductuales (ítem 7) del riesgo de violencia. Se observa que los hombres tienden a manifestar mayor cólera y malestar emocional a comparación de las mujeres, resultados obtenidos en otras investigaciones (Alcázar-Córcoles, 2007). Sin embargo, se propone que las mujeres manifiestan mayor predisposición a reaccionar violentamente con personas externas a su círculo familiar.

En conclusión, se recomienda utilizar las puntuaciones derivadas de aplicar este instrumento de medición desde un modelo unidimensional, lo cual facilita la comparabilidad entre las personas evaluadas. En especial se recomienda el uso del modelo Rasch, dadas las ventajas en términos del modelo de medición que presenta.

Como limitación, debe tenerse en cuenta que no necesariamente se van a replicar los resultados obtenidos en esta investigación si el instrumento es aplicado en una población diferente. Tal y como se señaló con anterioridad, no existen las propiedades psicométricas de un test, sino que éstas deben estar referidas a las interpretaciones que se hacen a partir de dichos resultados, lo cual implica que obedecen a las características particulares de la población en la cual han sido obtenidas.

Referencias

Adams, R., Wu, M., & Wilson, M. (2012). The Rasch rating model and the disordered threshold controversy. Educational and Psychological Measurement, 72(4), 547-573. doi: 10.1177/0013164411432166.

Aiken, L. R. (1985). Three coefficients for analyzing the reliability and validity of rating. Educational and Psychological Measurement, 45(1), 131-142. doi: 10.1177/0013164485451012.

Alcázar-Córcoles, M. A. (2007). Patrones de conducta y personalidad antisocial en adolescentes. Estudio transcultural: El Salvador, México y España. (Tesis doctoral). Universidad Autónoma de Madrid. Recuperado de: https://repositorio.uam.es/bitstream/handle/10486/1702/6668_alcazar_corcoles.pdf?sequence=1

Alcázar-Córcoles, M. A., Verdejo-García, A., & Bouso-Sáiz, J. C. (2016). Propiedades psicométricas de la Escala de Riesgo de Violencia de Plutchik en una muestra de jóvenes hispanohablantes. Actas Españolas de Psiquiatría, 44(1), 13-19.

Álvarez Latorre, J. M., Cañón Buitrago, S. C., Castaño Castrillón, J. J., Bernier Ocampo, L. H., Cataño Molina, Á. M., Galdino Cruz, P. V., … Sánchez Rodríguez, C. M. (2012). Factor de riesgo suicida y factores asociados en adolescentes de una institución educativa de Palestina-Caldas (Colombia). Archivos de Medicina (Col), 13(2), 127-141.

American Educational Research Association [AERA], American Psychological Association [APA], & National Council of Measurement in Education [NCME] (2014). Standards for educational and psychological testing. Washington, DC: AERA.

Ato, M., López, J., & Benavente, A. (2013). Un sistema de clasificación de los diseños de investigación en psicología. Anales de Psicología, 29(3), 1038-1059. doi: 10.6018/analesps.29.3.178511.

Baker, F. B., & Kim, S. H. (2004). Item Response Theory. Parameter estimation techniques (2. Ed.). Boca Raton, FL: CRC Press.

Bandalos, D. L., & Boehm-Kaufman, M. R. (2009). Four common misconceptions in Exploratory Factor Analysis. En C. E. Lance, & R. J. Vandenberg (Eds.), Statistical and methodological myths and urban legends: doctrine, verity and fable in organizational and social sciences (pp. 61-88). New York: Routledge.

Bernier, A., & Males M. (2017). Needed: A fresh perspective on campus violence. Thought and Action, 2, 47-58. Recuperado de: http://www.nea.org/assets/docs/2017TAWinter_Males.pdf

Bollen, K. A., & Bauldry, S. (2011). Three Cs in measurement models : causal Indicators, composite indicators, and covariates. Psychological methods, 16(3), 265-284. doi: 10.1037/a0024448.

Bond, T., & Fox, C. M. (2015). Applying the Rasch model. Fundamental measurement in the human sciences (3. Ed.). New York: Routledge.

Burga, A. A. (2006). La unidimensionalidad de un instrumento de medición, perspectiva factorial. Revista de Psicología de la Pontificia Universidad Católica, 25(1), 53-80.

Chen, P., & Popovich, P. (2002). Correlation: parametric and nonparametric measures. Thousand Oaks, CA: Sage.

Conselleria de Sanitat. (2006). Escalas e instrumentos para la valoración en atención domiciliaria. Valencia, España: Agéncia Valenciana de Salut.

Costello, A. B., & Osborne, J. W. (2005). Best practices in Exploratory Factor Analysis: four recommendations for getting the most from your analysis. Practical Assessment, Research & Evaluation, 10(7), 1-9. doi: 10.7275/jyj1-4868

Crocker, L., & Algina, J. (2008). Introduction to classical and modern test theory. Mason, OH: Cengage Learning.

Duke, A. A., Smith, K. M. Z., Oberleitner, L. M. S., Westphal, A., & McKee, S. A. (2018). Alcohol, drugs, and violence: A meta-meta-analysis. Psychology of Violence, 8(2), 238-249. doi: 10.1037/vio0000106.

Dunn, T. J., Baguley, T., & Brunsden, V. (2014). From alpha to omega: A practical solution to the pervasive problem of internal consistency estimation. British Journal of Psychology, 105(3), 399-412. doi: 10.1111/bjop.12046.

Evans, S. A., & Salekin, K. L. (2016). Violence risk communication: What do judges and forensic clinicians prefer and understand? Journal of Threat Assessment and Management, 3(3-4), 143-163. doi: 10.1037/tam0000062.

Furr, R. M., & Bacharach, V. R. (2013). Psychometrics: an introduction (2. Ed.). Thousand Oaks: Sage.

Glover, A. J. J., Churcher, F. P., Gray, A. L., Mills, J. F., & Nicholson, D. E. (2017). A cross-validation of the Violence Risk Appraisal Guide-Revised (VRAG-R) within a correctional sample. Law and Human Behavior, 41(6), 507-518. doi: 10.1037/lhb0000257

Haertel, E. H. (2006). Reliability. En R. L. Brennan (Ed.), Educational measurement (4. Ed.), (pp. 17-64). Wesport, CT: American Council on Education & Praeger Publishers.

Instituto Nacional de Estadística e Informática (2018). Perú: Estadísticas de feminicidio 2011-2018. Recuperado de https://www.inei.gob.pe/media/MenuRecursivo/boletines/boletin_feminicidio2018.pdf

Loeber, R., Ahonen, L., Stallings, R., & Farrington, D. P. (2017). Violence de-mystified: Findings on violence by young males in the Pittsburgh Youth Study. Canadian Psychology/Psychologie canadienne, 58(4), 305-315. doi: 10.1037/cap0000110.

Mc Evoy, C., & Hideg, G. (2017). Global violence deaths 2017. Time to decide. Recuperado de: http://www.smallarmssurvey.org/fileadmin/docs/U-Reports/SAS-Report-GVD2017.pdf

Mills, J. F. (2017). Violence risk assessment: A brief review, current issues and future directions. Canadian Psychology.Psychologie canadienne, 58(1), 40-49. doi: 10.1037/cap0000100.

Montero, I., & León, O. (2002). Clasificación y descripción de las metodologías de investigación en Psicología. Revista Internacional de Psicología Clínica y de la salud, 2(3), 503-508.

Muñoz Vicente, J. M., & López-Ossorio, J. J. (2016). Valoración psicológica del riesgo de violencia: Alcance y limitaciones para su uso en el contexto forense. Anuario de Psicología Jurídica, 26(1), 130-140. doi: 10.1016/j.apj.2016.04.005.

Netemeyer, R. G., Bearden, W. O., & Sharma, S. (2003). Scaling procedures. Issues and applications. Thousand Oaks, CA: Sage.

Park, H. S., Dailey, R., & Lemus, D. (2002). The use of exploratory factor analysis and principal components analysis in communication research. Human Communication Research, 28(4), 562-577. doi: 10.1111/j.1468-2958.2002.tb00824.x.

Pearson, R., & Mundform, D. (2010). Recommended sample size for conducting exploratory factor analysis on dichotomous data. Journal of Modern Applied Statistical Methods, 9(2), 359-368. doi: 10.22237/jmasm/1288584240

Penney, S. R., Lee, Z., & Moretti, M. M. (2010). Gender differences in risk factors for violence: An examination of the predictive validity of the structured assessment of violence risk in youth. Aggressive Behavior, 36(6), 390-404. doi: 10.1002/ab.20352.

Plutchik, R., & Van Praag, H. M. (1990). A self-report measure of violence risk, II. Comprehensive Psychiatry, 31(5), 450-456. doi: 10.1016/0010-440X(90)90031-M.

Rosenfeld, B., Foellmi, M., Khadivi, A., Wijetunga, C., Howe, J., Nijdam-Jones, A., … Rotter, M. (2017). Determining when to conduct a violence risk assessment: Development and initial validation of the Fordham Risk Screening Tool (FRST). Law and Human Behavior, 41(4), 325-332. doi: 10.1037/lhb0000247.

Rubio, G., Montero, I., Jáuregui, J., Salvador, M., Marín, J. J., & Santo-Domingo, J. (1998). Validación de la escala de riesgo de violencia de Plutchik en población española. Archivos de Neurobiología, 61(4), 1-9.

Secretaría Nacional de la Juventud (2015). Informe nacional de las juventudes en el Perú. Recuperado de: http://onu.org.pe/wp-content/uploads/2016/03/Informe-Juventudes-Peru-2015.pdf

Secretaría Nacional de la Juventud, Ministerio de Justicia y Derechos Humanos & Universidad Privada del Norte (2013). Criminalidad y violencia juvenil en el Perú. Exploración en el contexto y orígenes del comportamiento trasgresor. Lima: Biblioteca Nacional del Perú.

Socan, G. (2003). The incremental value of Minimum Rank Factor Analysis (Tesis doctoral). Recuperado de: www.rug.nl/research/portal/files/10579558/thesis.pdf

Sowden, J. N., & Olver, M. E. (2017). Use of the Violence Risk Scale-Sexual Offender Version and the Stable 2007 to assess dynamic sexual violence risk in a sample of treated sexual offenders. Psychological Assessment, 29(3), 293-303. doi: 10.1037/pas0000345.

Stucky, B. D., Gottfredson, N. C., & Panter, A. T. (2012). Item-level factor analysis. En H. Cooper, P. M. Camic, D. L. Long, A. T. Panter, D. Rindskopf, & K. J. Sher (Eds.), APA handbooks in psychology®. APA handbook of research methods in psychology, Vol. 1: Foundations, planning, measures, and psychometrics (pp. 683–697). doi: 10.1037/13619-036.

Timmerman, M. E., & Lorenzo-Seva, U. (2011). Dimensionality Assessment of Ordered Polytomous Items with Parallel Analysis. Psychological Methods, 16(2), 209-220. doi: 10.1037/a0023353.

Traub, R. E., & Rowley, G. (1991). An NCME instructional module on understanding reliability. Educational Measurement Issues and Practice, 10(1), 37-45. doi: 10.1111/j.1745-3992.1991.tb00183.x.

United Nations Children’s Fund (2017). A familiar face. Violence in the lives of children and adolescents. Recuperado de: https://www.unicef.org/publications/files/Violence_in_the_lives_of_children_and_adolescents.pdf

Viladrich, C., Angulo-Brunet, A., & Doval, E. (2017). A journey around alpha and omega to estimate internal consistency reliability. Anales de Psicología, 33(3), 755-782. doi: 10.6018/analesps.33.3.268401.

Warren, J. I., Wellbeloved-Stone, J. M., Dietz, P. E., & Millspaugh, S. B. (2018). Gender and violence risk assessment in prisons. Psychological Services, 15(4) 543-552. doi: 10.1037/ser0000217.

World Health Organization (2014). Global status report on violence prevention 2014. Recuperado de: https://www.who.int/violence_injury_prevention/violence/status_report/2014/en/.

Wright, B. D., & Linacre, J. M. (1987). Dichotomous Rasch model derived from objectivity. En J. M. Linacre (Ed.), Rasch Measurement Transactions Part 1, 1995, (pp. 5-6). Chicago: MESA Press.

Wright, B. D., & Linacre, J. M. (1989). Differences between scores and measures. En J. M. Linacre (Ed.), Rasch Measurement Transactions Part 1, 1995, (pp. 63-65). Chicago: MESA Press.

Wright, B., & Linacre, J. M. (1995). Reasonable mean-square fit values. En J. Linacre (Ed.), Rasch Measurement Transactions Part 2, (p. 370). Chicago: MESA Press.

Wu, M., Tam, H. P., & Jen, T. H. (2016). Educational measurement for applied researchers. Theory into practice. Gateway East, Singapore: Springer Nature.

Zumbo, B. D. (2007). Validity: Foundational issues and statistical methodology. En C. R. Rao, & S. Sinharay (Eds.), Handbook of statistics, vol. 26, Psychometrics (pp. 45-79). Radarberg, Amsterdam: North-Holland.

Notas de autor

Enviar correspondencia a: Espinoza, M. C. E-mail: mcespino@ulima.edu.pe

Información adicional

Citar este artículo como: Espinoza, M. C, Burga, A., & Okumura, A. (2020). Estructura Factorial de la Escala de Riesgo de Violencia de Plutchik (ERVP): Propiedades psicométricas y diferencias en función a variables sociodemográficas en universitarios limeños. Revista Argentina de Ciencias del Comportamiento, 12(2), 59-68

Enlace alternativo

HTML generado a partir de XML-JATS4R por