Monografia Estadistica Aplicada Upea Abril 2022
Monografia Estadistica Aplicada Upea Abril 2022
Monografia Estadistica Aplicada Upea Abril 2022
DIRECCIÓN DE POSGRADO
CENTRO DE ESTUDIOS Y FORMACIÓN DE POSGRADO E
INVESTIGACIÓN
“CEFORPI”
MONOGRAFÍA PRESENTADA EN
OPCIÓN AL DIPLOMADO EN
ESTADÍSTICA APLICADA A LA
INVESTIGACIÓN CIENTÍFICA,
TÍTULO INTERMEDIO DE LA
MAESTRÍA EN INVESTIGACIÓN
CIENTÍFICA VERSIÓN X-
MODALIDAD VIRTUAL.
AUTOR: ERIK ERNESTO MUÑOZ ROYO
EL ALTO – BOLIVIA
2022
ÍNDICE
INTRODUCCIÓN ............................................................................................................................ 1
CAPÍTULO 1: GENERALIDADES DE LA INVESTIGACIÓN................................................. 2
1.1. ANTECEDENTES DEL PROBLEMA ........................................................................... 2
1.2. OBJETIVOS ...................................................................................................................... 4
1.3. OBJETIVO GENERAL ................................................................................................... 4
1.4. OBJETIVO ESPECÍFICO ............................................................................................... 4
1.5. JUSTIFICACIÓN ............................................................................................................. 4
1.6. ENFOQUE METODOLÓGICO ..................................................................................... 4
CAPÍTULO 2: MARCO TEÓRICO ............................................................................................... 5
2.1. ANÁLISIS FACTORIAL ................................................................................................. 5
2.2. FACTOR ............................................................................................................................ 6
2.3. RESULTADOS DEL ANÁLISIS FACTORIAL ............................................................ 7
2.4. INFORMACIÓN QUE PROPORCIONA EL ANÁLISIS FACTORIAL ................... 8
2.5. ANÁLISIS FACTORIAL CONFIRMATORIO ............................................................ 9
2.6. FACTORES PRINCIPALES O COMUNES ............................................................... 11
2.7. NÚMERO DE FACTORES ........................................................................................... 12
2.8. CRITERIOS PARA VALORAR LA MAGNITUD DE LAS CORRELACIONES
VARIABLE-FACTOR ............................................................................................................... 12
2.9. NÚMERO MÍNIMO DE VARIABLES PARA DEFINIR UN FACTOR.................. 13
2.10. ANÁLISIS FACTORIAL Y COMPROBACIÓN DE LA VALIDEZ DE
CONSTRUCTO .......................................................................................................................... 13
2.11. ANÁLISIS FACTORIAL APLICANDO JAMOVI................................................. 16
2.12. ANÁLISIS FACTORIAL APLICANDO JAMOVI................................................. 16
CAPÍTULO 3: RESULTADOS DEL ANÁLISIS FACTORIAL CONFIRMATORIO ........... 19
3.1. INFORMACIÓN DESCRIPTIVA ..................................................................................... 19
3.2. INFORMACIÓN SOBRE LA FIABILIDAD .................................................................... 20
3.2. INFORMACIÓN DEL ANÁLISIS FACTORIAL CONFIRMATORIO ....................... 21
CAPÍTULO 4: CONCLUSIONES Y RECOMENDACIONES .................................................. 27
4.1 CONCLUSIONES ................................................................................................................. 27
4.2 RECOMENDACIONES ....................................................................................................... 28
BIBLIOGRAFÍA ............................................................................................................................. 29
ÍNDICE DE FIGURAS
INTRODUCCIÓN
Identificar el marco conceptual más importante sobre las características del análisis
factorial confirmatorio.
Presentar un caso práctico de aplicación del análisis factorial confirmatorio.
Exponer las estadísticas descriptivas del caso práctico.
Determinar las estadísticas de fiabilidad de la escala de medición.
Determinar las cargas y covarianzas de los factores, y varianzas de los residuos.
Evaluar la validez del constructo aplicando índices de ajuste.
El capítulo inicial está referido a los antecedentes más relevantes del problema, objetivos de
la investigación, justificación, enfoque metodológico con un enfoque cuantitativo, sustentado
en un proceso deductivo que permite explicar la validez del constructo de investigación.
En el análisis factorial, los valores teóricos (los factores) se forman para maximizar su
explicación de la serie de variables entera, y no para predecir una variable dependiente. Si
hiciéramos una analogía con las técnicas de dependencia, cada una de las variables
(originales) observadas sería una variable dependiente, que es una función de una serie de
factores (dimensiones) subyacentes y latentes que están compuestas por todas las otras
variables. Por tanto, cada variable es predicha por todas las demás. Por el contrario, se puede
considerar cada factor (valor teórico) como una variable dependiente que es una función del
conjunto entero de las variables observadas. (Mejía, 2017, p. 10)
Es posible que el investigador quiera probar las hipótesis que implican cuestiones tales como
qué variables deberían ser agrupadas en un factor o el número exacto de factores. En estos
casos, se requiere un análisis factorial que adopte un enfoque confirmatorio --es decir, valorar
hasta qué punto los datos se ajustan a la estructura esperada. La perspectiva confirmatoria
del análisis factorial está radicada en las ecuaciones estructurales. (Mejía, 2017, p. 11)
El análisis factorial es una técnica utilizada para descubrir agrupaciones de variables de tal
forma que las variables de cada grupo están altamente correlacionadas, y los grupos están
relativamente incorrelacionados. De este modo se consigue reducir un número de variables
intercorrelacionadas a un número inferior de factores no correlacionados, que permiten
explicar la mayor parte de variabilidad de cada una de las variables. (Montoya Suárez, 2007,
p. 1)
1.2. OBJETIVOS
1.3. OBJETIVO GENERAL
1.5. JUSTIFICACIÓN
La presente investigación se realizó con el enfoque cuantitativo que “se fundamenta más en
un proceso deductivo (Describir, analiza, explicar la validez del constructo)”, es decir, se
determinaron las estadísticas descriptivas, estadísticas de fiabilidad de la escala de medición,
cargas y covarianzas de los factores, varianzas de los residuos con el propósito de evaluar la
validez del constructo aplicando índices de ajuste.
5
El presente capítulo está referido a las teorías y conceptos más importantes que permiten
sustentar y a su vez comprender la temática de investigación sobre el análisis factorial
confirmatorio en la investigación científica.
2.2. FACTOR
En realidad, los factores no existen, lo que existe de cada sujeto es una suma de sus respuestas
a una serie de ítems o preguntas, una combinación lineal de variables (ítem a + ítem b + ítem
c + …). Las sumas totales de ítems son distintas para cada sujeto, o pueden serlo, la varianza
de los totales nos expresa la diversidad que existe entre los sujetos. Si hay ‘n’ factores, se
interpreta que el instrumento original se puede descomponer en ‘n’ instrumentos (cada uno
7
compuesto por todos los ítems), aunque en cada instrumento los ítems tienen un peso
específico distinto según sea su relación con el factor.
Si encontramos, por ejemplo, tres factores, esto quiere decir que podemos descomponer el
instrumento original en tres instrumentos; cada uno está compuesto por todos los ítems, pero
en cada instrumento los ítems tienen un peso específico distinto según sea su relación con
cada factor. Las nuevas puntuaciones son las puntuaciones factoriales o factor scores.
Los pesos pueden ser grandes o pequeños, positivos o negativos. Generalmente, en cada
factor hay ítems con pesos grandes y otros próximos a cero; los ítems que más pesan en cada
factor son los que lo definen.
La varianza (diversidad) de todas las nuevas medidas equivale a la varianza de la medida
original (no a toda, pero sí a la máxima que es posible explicar); estos factores indican las
fuentes de varianza; si hay diferencias en la medida original es porque las hay en estas nuevas
puntuaciones. El análisis factorial se reduce a la búsqueda de estos pesos para localizar
medidas distintas a partir de las variables originales, y de manera que, a poder ser, entre todas
las nuevas medidas agoten o expliquen toda la varianza presente en las variables originales.
(De la Fuente, 2011, P.3-4)
El análisis factorial nos indica cómo tienden a agruparse los ítems o variables. Examinando
el contenido conceptual de los ítems que pertenecen al mismo factor podemos comprender
qué factores [o constructos] subyacentes explican las correlaciones entre los ítems. Puede
suceder que, por ejemplo, en una escala de actitud hacia el estudio, descubramos que los
ítems se agrupan en torno a estos tres factores: 1º nivel de aspiraciones, 2º gusto por el
estudio, por saber más, 3º nivel de competitividad. Y como todos los ítems están relacionados
con estos tres factores (con unos más y con otros menos), por eso explicamos las relaciones
entre los ítems.
Típicamente cuando hay factores claros (y no siempre los hay), los ítems con correlaciones
más altas con un factor determinado tienen correlaciones claras entre sí (significativas,
mayores que con otros ítems, no necesariamente grandes) y más bajas o muy bajas con otros.
El resultado es análogo a un sociograma de ítems: los ítems del mismo factor se eligen entre
8
sí y tienden a rechazar a los mismos ítems (en vez de elecciones y rechazos habría que hablar
de mayor o menor relación). La información del análisis factorial es muy matizada porque
nos indica el grado (correlación) de cada ítem o variable con cada factor.
Los factores equivalen a constructos hipotéticos o conceptos subyacentes o latentes (no
observables directamente) deducidos de las correlaciones entre las variables. El análisis
factorial de un instrumento de medición ayuda a establecer la validez de constructo de lo que
estamos midiendo, en el sentido de que nos analiza la estructura del constructo que estamos
pretendiendo medir (dedicamos después un apartado específico a la relación entre análisis
factorial y validez de constructo). También tiene que ver con la fiabilidad en el sentido de
que nos dice hasta qué punto podemos interpretar el constructo como unidimensional. La
interpretación no es siempre clara y en principio es preferible ver los resultados del análisis
factorial más como descriptivos que como explicativos. (Morales, 2011, p. 5-6)
que el número de factores o constructos es menor que el número de variables observadas (es
más parsimoniosa, porque es distinto incluir como parámetros independientes aquellos
asociados al nivel educativo, el puesto de trabajo y el ingreso, que en este caso serían tres
parámetros, mientras que si se incluyera el factor de estatus socioeconómico, que se mide
mediante estas tres variables observadas, sólo se estaría incluyendo un parámetro)
(Fernández, 2015, p. 3)
En primer lugar, hay que tener clara la diferencia entre Componentes Principales y Factores
Comunes.
a) Con el análisis de Componentes Principales analizamos toda la varianza, común y no
común (ponemos los unos en la diagonal de la matriz de correlaciones) y con el análisis de
Factores Comunes sólo se analiza la varianza compartida (estimaciones de la comunalidad
en la diagonal). En el análisis de Factores Comunes (como Maximum Likelihod) los factores
van explicando sucesivamente la máxima proporción de varianza en la población, no en la
muestra. El término Análisis Factorial se refiere en rigor solamente al análisis de Factores
Comunes aunque es habitual utilizarlo para designar al análisis de Componentes Principales.
b) La estructura factorial que resulta en ambos tipos de análisis es más o menos la misma 1)
cuando las variables (ítems) son muchas (unas 20, o incluso menos; Nunnally (1978:418-
419) recomienda el análisis de Componentes Principales siempre que dispongamos de unas
20 variables) y 2) cuando hay una estructura factorial clara. Podemos considerar que existe
una estructura factorial clara cuando los ítems que definen un factor tienen pesos de .50 o
12
más en este factor y menores en los demás. En la práctica y en la mayoría de los análisis, los
resultados vienen a ser los mismos (Morales, 2011, p. 10-11)
Los pesos o cargas (loading o weights en inglés) de las variables que definen un factor son
y se interpretan como los coeficientes de correlación de cada variable con cada factor.
Podríamos valorar estos coeficientes como cualquier otro coeficiente de correlación (con N
= 100 una correlación de .20 más o menos ya es estadísticamente significativa), pero estos
coeficientes tienen unos errores típicos mayores que los coeficientes normales, por lo que
debemos valorarlos con criterios más estrictos. Aunque no hay un valor óptimo de referencia,
hay que distinguir entre significación estadística y relevancia práctica. Desde el punto de
vista de la relevancia suele considerarse un valor en torno a .30 como mínimo (explicaría
aproximadamente el 10% de la varianza); en torno a .40 ya es más relevante, y valores en
torno a .50 son ya de clara relevancia práctica y definen bien el factor; estas orientaciones
pueden encontrarse en muchos autores (como Hair y otros, 1999).
El tamaño de la muestra y el número de variables (ítems) también son datos que hay que
tener en cuenta para valorar estos coeficientes. En general a mayor número de sujetos los
coeficientes pueden ser menores, aunque no inferiores a .30 para tenerlos en cuenta como
representativos de un factor (Kline, 1994:52) o entre .30 y .35 (Spector, 1992, Costello y
Osborne, 2005).
Un criterio puede ser éste: con N = 100, podemos considerar valores relevantes los que están
en torno a .50, con N = 200 nos bastan valores de .40 y con 300 sujetos .30 es suficiente;
13
estos valores son orientativos (pueden verse criterios más específicos en Hair y otros,
1999:100). Si un ítem tiene pesos no pequeños (en torno a .30 o poco más) en más de un
factor (crossloader), posiblemente lo mejor es suprimirlo cuando se está preparando un
instrumento y se busca una estructura clara.
También tiene que ver el número de variables: a mayor número de variables y factores, serán
aceptables valores menores. Cuando hay muchos factores, los ítems o variables que definen
los últimos factores deben tener pesos mayores para ser tenidos en cuenta. En factores rotados
oblicuos los pesos suelen ser menores; hay autores que sugieren un .20 como mínimum, pero
.30 parece un mínimo aceptable. (Morales, 2011, p. 15)
Los factores se consideran bien definidos cuando al menos tres variables tienen en él sus
mayores pesos (Kim y Mueller, 1994; Costello y Osborne, 2005). Si concebimos un factor
como un constructo subyacente que explica las correlaciones entre los ítems, no tiene sentido
hablar de un factor formado por un solo ítem: esto querría decir que ese ítem no se relaciona
de manera especial con los demás factores (o grupos de variables). Al menos hacen falta dos
variables para poder hablar de algo común. Un factor sólido vendría definido por unos 5
ítems con pesos de .50 o más en el factor. (Morales, 2011, p. 16)
oportunidad en cada situación; de hecho, es frecuente ver utilizados estos factores como
instrumentos independientes en numerosas investigaciones. (Morales, 2011, p. 17-19)
El estadístico de bondad de ajuste clásico sigue una distribución χ2, con los mismos grados
de libertad que el modelo, y que permite contrastar la hipótesis de que el modelo se ajusta
bien a los datos observados. El resultado del estadístico indica si existe una discrepancia
significativa entre la matriz reproducida y la correspondiente a los datos originales. Para
aceptar el modelo se debe de tener que la probabilidad p de χ2 >0.05, en caso contrario el
modelo debería ser rechazado. No obstante, con el nuevo criterio de Benjamin et al. (2017)
el criterio anterior se sustituye por 0,005.
Este estadístico suele citarse entre su problemática al estar influenciado por el tamaño de la
muestra, de forma tal que tiende a rechazar modelos que en la realidad se ajustan muy bien a
los datos observados. Y con tamaños muestrales muy pequeños ocurre lo contrario, no detecta
bien las discrepancias aceptando modelos que no se ajustan a los datos. Por otra parte, en
modelos complejos (sobreajuste), se tiende a aceptar la Ho frente a H1. Y finalmente decir,
que el estadístico χ2 depende del método de estimación elegido; no será el mismo resultado
con ML (Maximum Likelihood), GLS (Generalized Least Squares) o DWLS (Diagonally
weighted least squares).
Una solución que encontramos frecuentemente para este problema, es usar como
complemento al estadístico anterior el cociente χ2 /GL (Chi-cuadrado normado), que se
acepta que debería estar entre 1-3 para aceptar el ajuste del modelo Hu & Bentler (1995),
aunque algunos autores empiezan a considerarlo para valores menor a 5.
Dicho lo cual pasaremos a ver los resultados sobre todo fijándonos en los 4 indices básicos,
y que son los correspondientes a CFI, TLI, RMSEA y SRMR. Es una combinación de dos
índices de ajuste incremental (CFI y TLI) y dos de ajuste basados en las covarianzas del
modelo (RMSEA y SRMR) para sustentar la decisión de aceptar como válida la estructura
propuesta en los modelos de análisis factorial confirmatorio, basándonos en los criterios de
decisión en los referenciados por Bentler & Bonnet (1980) y Hu & Bentler (1995).
Entrando ya un poco más en materia diremos que:
18
-CFI (Comparative Fit Index): índice relativo frecuentemente usado y aconsejable por tener
uno de los mejores comportamientos (Tanaka, 1993), oscila entre 0 y 1, siendo el valor de .9
el mínimo requerido y el aconsejable .95, para defender el modelo.
-TLI (Turker-Lewis index): segundo índice relativo que usaremos y que mide la mejora de
ajuste que produce el modelo propuesto con respecto al modelo nulo, estando corregido para
tener en cuenta la complejidad del modelo. Se puede interpretar como un coeficiente de
fiabilidad. Los criterios son los mismos que para CFI.
-RMSEA (Root Mean Square Error of Approximation) y SRMR (Standarized Root Mean-
Square): medidas de cuantía de error del modelo, e indicadores de un buen ajuste con valores
inferiores a .05, siendo aceptables para valores alrededor de 0.06 (Browne & Cudeck, 1993).
Actualmente el valor se aconseja que vaya acompañado de su intervalo de confianza al 90%,
así como el grado de significación (p) para el cumplimiento de la Ho (p<0,05).
El RMSEA estima la discrepancia que habría entre la matriz de correlación poblacional y la
matriz reproducida por el modelo propuesto, también en la población. Estima hasta qué punto
el modelo estudiado es una aproximación razonable. Por otra parte, este índice es relativo a
los grados de libertad del modelo y, por tanto, puede penalizar a los modelos menos
parsimoniosos (complejidad).
El SRMR es la diferencia promedio entre las varianzas y covarianzas predichas y las
observadas en el modelo. Por lo tanto, un buen ajuste debería dar valores cercanos al 0,
considerando como buenos por debajo de .05 ya se considera un buen ajuste, y aceptables
por debajo de .06, aun cuando en la literatura podemos encontrar criterios como .08 o incluso
.10, pero que nosotros consideramos como no aconsejables.
En el ejemplo que estamos manejando, los índices relativos están bien, estando muy al límite
los índices basados en las covarianzas, sobre todo el SRMR, que podría aceptarse solo con
el criterio laxo de 0.08.
Si al final tuviésemos que dar un consejo a nuestro lectores sobre la simplificación a la hora
de usar estos indicadores de ajuste, seguiríamos la propuesta de Hu,L. & Bentler, P.M.
(1999): A la hora de recomendar combinaciones de medidas preferimos una combinación de
CFI> 0.95 y SRMR <0.08, y para solidificar aún más la evidencia agregaremos el RMSEA
<0.06. (Meobsuniov, 2020)
19
En el presente capítulo se expone un caso práctico (Caso Hipotético) sobre el síndrome 'burnout' se presenta la información estadística
descriptiva, fiabilidad del diseño del instrumento y análisis factorial confirmatorio.
Tabla 2: Estadísticas de
Fiabilidad de Escala
ω de
McDonald
escala 0.691
Tabla 5: Medidas de ajuste adicionales - Índices de ajuste Tabla 6: Otras medidas de ajuste
Índice Valor Métrica Valor
Índice de Ajuste Comparativo (CFI) 0.991 Error cuadrático medio de aproximación (RMSEA) 0.057
Índice de Tucker-Lewis (TLI) 0.989 RMSEA 90 % IC límite inferior 0.039
Índice de ajuste no normalizado de Bentler-Bonett (NNFI) 0.989 RMSEA 90 % IC límite superior 0.075
Índice de ajuste normalizado de Bentler-Bonett (NFI) 0.978 Valor p de RMSEA 0.236
Índice de ajuste normalizado de parsimonia (PNFI) 0.785 Raíz estandarizada residual cuadrada media (SRMR) 0.072
Índice de ajuste relativo de Bollen (RFI) 0.973 N crítico de Hoelter (α = .05) 157.381
Índice de ajuste incremental de Bollen (IFI) 0.991 N crítico de Hoelter (α = .01) 174.134
Índice de no centralidad relativa (RNI) 0.991 Índice de bondad de ajuste (GFI) 0.990
Índice de ajuste de McDonald (IMF) 0.886
Fuente: Elaboración propia con Japs, 2022. Índice de validación cruzada esperado (ECVI)
# Factors
Factor1 =~ lambda_1_1*bo01 + lambda_1_2*bo02 + lambda_1_3*bo03 + lambda_1_4*bo04 + lambda_1_5*bo06
Factor2 =~ lambda_2_1*bo08 + lambda_2_2*bo09 + lambda_2_3*bo15
Factor3 =~ lambda_3_1*bo05 + lambda_3_2*bo07 + lambda_3_3*bo10 + lambda_3_4*bo11 + lambda_3_5*bo12 +
lambda_3_6*bo16
# Residual Correlations
bo11 ~~ bo12
27
4.1 CONCLUSIONES
Entre las conclusiones más relevantes se tienen:
1
Error cuadrático medio de aproximación Robust (Determinado con R Studio).
28
La evaluación de los parámetros del modelo permitió determinar los índices de ajuste
los cuales cumplen con niveles aceptables, es así que se cumple con la validez del
constructo síndrome 'burnout', estando el modelo representado por los tres factores:
Agotamiento, Cinismo y Eficiencia Profesional, por tanto, dichos factores explican
su influencia sobre el estrés laboral.
4.2 RECOMENDACIONES
Entre las recomendaciones más relevantes se tienen:
BIBLIOGRAFÍA
Batista-Foguet, J. M., Coenders, G., & Alonso, J. (2004). [Confirmatory factor analysis. Its
role on the validation of health related questionnaires]. Medicina Clinica, 122
Suppl(Supl 1), 21–27. http://www.ncbi.nlm.nih.gov/pubmed/14980156
Elosua, P., & Egaña, M. (2020). Psicometría aplicada: Guía para el análisis de datos y
escalas con jamovi. https://web-argitalpena.adm.ehu.es/pdf/USPDF201508.pdf
Ferrando, P. J., Lorenzo-Seva, U., Hernández-Dorado, A., & Muñiz, J. (2022). Decalogue
for the Factor Analysis of Test Items. Psicothema, 34(1), 7–17.
https://doi.org/10.7334/psicothema2021.456
López, M., & Gutiérrez, L. (2019). Cómo realizar e interpretar un análisis factorial
exploratorio utilizando SPSS. REIRE Revista d Innovaci� i Recerca En Educaci�,
12 (2), 1–14. https://doi.org/10.1344/reire2019.12.227057
http://dialnet.unirioja.es/servlet/articulo?codigo=4804281&info=resumen&idioma=E
NG
ANEXOS
32
Anexo 1
Codificación de variables
Item Detalle Medida
Género Nominal
bo01 01. Estoy emocionalmente agotado por mi trabajo Escala
bo02 02. Estoy "consumido" al final de un día de trabajo Escala
03. Estoy cansado cuando me levanto por la mañana y tengo que afrontar
bo03 otro día en mi trabajo Escala
bo04 04. Trabajar todo el día es una tensión para mi Escala
bo05 05. Puedo resolver de manera eficaz los problemas que surgen en mi trabajo Escala
bo06 06. Siento que estoy "quemado" por el trabajo Escala
bo07 07. Contribuyo efectivamente a lo que hace mi organización Escala
bo08 08. He perdido interés por mi trabajo desde que empecé en este puesto Escala
bo09 09. He perdido entusiasmo por mi trabajo Escala
bo10 10. En mi opinión soy bueno en mi puesto Escala
bo11 11. Me estimula conseguir objetivos en mi trabajo Escala
bo12 12. He conseguido muchas cosas valiosas en este puesto Escala
bo13 13. Quiero simplemente hacer mi trabajo y no ser molestado Escala
bo14 14. Me he vuelto más cínico respecto a la utilidad de mi trabajo Escala
bo15 15. Dudo de la trascendencia y valor de mi trabajo Escala
16. En mi trabajo, tengo la seguridad que soy eficaz en la finalización de las
bo16 cosas Escala
33
Anexo 2
Estadísticos Descriptivos
bo01 bo02 bo03 bo04 bo05 bo06 bo07 bo08 bo09 bo10 bo11 bo12 bo13 bo14 bo15 bo16
Válido 204 204 204 204 204 204 204 204 204 204 204 204 204 204 204 204
Ausente 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
Media 1.446 2.054 1.279 1.279 4.686 1.201 5.152 0.485 0.529 5.613 5.426 5.221 3.510 0.627 0.544 5.387
Desviación Típica 1.229 1.175 1.392 1.238 1.667 1.155 1.479 1.129 1.033 1.013 1.101 1.395 2.584 1.434 0.989 1.272
Mínimo 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 1.000 0.000 0.000 0.000 0.000 0.000 0.000
Máximo 5.000 5.000 5.000 6.000 6.000 5.000 6.000 6.000 6.000 6.000 6.000 6.000 6.000 6.000 6.000 6.000
bo01
34
35
36
37
38
39
40
41
42
Anexo 3
Indices de ajuste RStudio
43
44
45