Tipos de confiabilidad

Introducción

La confiabilidad dice qué tan consistentemente un método mide algo. Cuando se aplica el mismo método a la misma muestra en las mismas condiciones, debe obtener los mismos resultados. De lo contrario, el método de medición puede no ser confiable.

Hay cuatro tipos principales de confiabilidad. Cada uno se puede estimar comparando diferentes conjuntos de resultados producidos por el mismo método.

Tipo de confiabilidadMide la consistencia de…
Prueba-repruebaLa misma prueba con el tiempo.
InterraterLa misma prueba fue realizada por diferentes personas.
Formas paralelasDiferentes versiones de una prueba que están diseñadas para ser equivalentes.
Consistencia internaLos elementos individuales de una prueba.

Desarrollo del tema

Fiabilidad prueba-reprueba

La confiabilidad prueba-reprueba mide la consistencia de los resultados cuando repite la misma prueba en la misma muestra en un momento diferente. Lo usa cuando está midiendo algo que espera que permanezca constante en su muestra.

Una prueba de daltonismo para los aspirantes a piloto en formación debe tener una alta confiabilidad prueba-reprueba, porque el daltonismo es un rasgo que no cambia con el tiempo.

Por qué es importante

Muchos factores pueden influir en sus resultados en diferentes momentos: por ejemplo, los encuestados pueden experimentar diferentes estados de ánimo o las condiciones externas pueden afectar su capacidad para responder con precisión.

La confiabilidad test-retest se puede utilizar para evaluar qué tan bien un método resiste estos factores a lo largo del tiempo. Cuanto menor sea la diferencia entre los dos conjuntos de resultados, mayor será la fiabilidad prueba-reprueba.

Cómo medirlo

Para medir la confiabilidad prueba-reprueba, realiza la misma prueba en el mismo grupo de personas en dos momentos diferentes. Luego calcula la correlación entre los dos conjuntos de resultados.

Ejemplo de confiabilidad prueba-reprueba

Usted diseña un cuestionario para medir el coeficiente intelectual de un grupo de participantes (una propiedad que es poco probable que cambie significativamente con el tiempo). Administra la prueba con dos meses de diferencia al mismo grupo de personas, pero los resultados son significativamente diferentes, por lo que la prueba -La confiabilidad de la prueba del cuestionario de CI es baja.

Mejora de la fiabilidad prueba-reprueba

Cuando diseñe pruebas o cuestionarios, trate de formular preguntas, afirmaciones y tareas de manera que no se vean influenciados por el estado de ánimo o la concentración de los participantes.

Al planificar sus métodos de recopilación de datos, intente minimizar la influencia de factores externos y asegúrese de que todas las muestras se analicen en las mismas condiciones.

Recuerde que se puede esperar que ocurran cambios en los participantes con el tiempo, y tómelos en cuenta.

Fiabilidad entre

La confiabilidad entre evaluadores (también llamada confiabilidad entre observadores) mide el grado de acuerdo entre diferentes personas que observan o evalúan lo mismo. Se utiliza cuando los datos son recopilados por investigadores que asignan calificaciones, puntajes o categorías a una o más variables.

En un estudio observacional en el que un equipo de investigadores recopila datos sobre el comportamiento en el aula, la confiabilidad entre evaluadores es importante: todos los investigadores deben ponerse de acuerdo sobre cómo categorizar o calificar los diferentes tipos de comportamiento.

Por qué es importante

Las personas son subjetivas, por lo que las percepciones de situaciones y fenómenos de diferentes observadores difieren naturalmente. La investigación confiable tiene como objetivo minimizar la subjetividad tanto como sea posible para que un investigador diferente pueda replicar los mismos resultados.

Al diseñar la escala y los criterios para la recopilación de datos, es importante asegurarse de que diferentes personas califiquen la misma variable de manera consistente con un sesgo mínimo. Esto es especialmente importante cuando hay varios investigadores involucrados en la recopilación o el análisis de datos.

Cómo medirlo

Para medir la confiabilidad entre evaluadores, diferentes investigadores realizan la misma medición u observación en la misma muestra. Luego calcula la correlación entre sus diferentes conjuntos de resultados. Si todos los investigadores otorgan calificaciones similares, la prueba tiene una alta confiabilidad entre evaluadores.

Ejemplo de confiabilidad entre evaluadores

Un equipo de investigadores observa el progreso de la cicatrización de heridas en los pacientes. Para registrar las etapas de curación, se utilizan escalas de calificación, con un conjunto de criterios para evaluar varios aspectos de las heridas. Se comparan los resultados de diferentes investigadores que evalúan el mismo conjunto de pacientes y existe una fuerte correlación entre todos los conjuntos de resultados, por lo que la prueba tiene una alta confiabilidad entre evaluadores.

Mejorar la confiabilidad entre evaluadores

  • Defina claramente sus variables y los métodos que se utilizarán para medirlas.
  • Desarrolle criterios objetivos y detallados sobre cómo se calificarán, contarán o categorizarán las variables.
  • Si participan varios investigadores, asegúrese de que todos tengan exactamente la misma información y capacitación.

Fiabilidad de formas paralelas

La confiabilidad de formas paralelas mide la correlación entre dos versiones equivalentes de una prueba. Lo usa cuando tiene dos herramientas de evaluación diferentes o conjuntos de preguntas diseñadas para medir lo mismo.

Por qué es importante

Si desea utilizar varias versiones diferentes de una prueba (por ejemplo, para evitar que los encuestados repitan las mismas respuestas de memoria), primero debe asegurarse de que todos los conjuntos de preguntas o mediciones brinden resultados confiables.

En la evaluación educativa, a menudo es necesario crear diferentes versiones de las pruebas para garantizar que los estudiantes no tengan acceso a las preguntas por adelantado. La confiabilidad de formas paralelas significa que, si los mismos estudiantes toman dos versiones diferentes de una prueba de comprensión de lectura, deberían obtener resultados similares en ambas pruebas.

Cómo medirlo

La forma más común de medir la confiabilidad de las formas paralelas es generar un gran conjunto de preguntas para evaluar lo mismo y luego dividirlas al azar en dos conjuntos de preguntas.

El mismo grupo de encuestados responde a ambos conjuntos y usted calcula la correlación entre los resultados. Una alta correlación entre los dos indica una alta confiabilidad de las formas paralelas.

Ejemplo de confiabilidad de formas paralelas

Se formularon un conjunto de preguntas para medir la aversión al riesgo financiero en un grupo de encuestados. Las preguntas se dividen aleatoriamente en dos conjuntos y los encuestados se dividieron aleatoriamente en dos grupos. Ambos grupos toman ambas pruebas: el grupo A toma la prueba A primero, y el grupo B toma la prueba B primero. Se comparan los resultados de las dos pruebas y los resultados son casi idénticos, lo que indica una alta confiabilidad de las formas paralelas.

Mejora de la fiabilidad de los formularios paralelos

Asegúrese de que todas las preguntas o elementos de la prueba se basen en la misma teoría y estén formulados para medir lo mismo.

Consistencia interna

La consistencia interna evalúa la correlación entre múltiples elementos en una prueba que pretenden medir el mismo constructo.

Puede calcular la consistencia interna sin repetir la prueba ni involucrar a otros investigadores, por lo que es una buena manera de evaluar la confiabilidad cuando solo se tiene un conjunto de datos.

Por qué es importante

Cuando diseña un conjunto de preguntas o calificaciones que se combinarán en un puntaje general, debe asegurarse de que todos los elementos realmente reflejen lo mismo. Si las respuestas a diferentes ítems se contradicen entre sí, la prueba puede no ser confiable.

Para medir la satisfacción del cliente con una tienda en línea, puede crear un cuestionario con un conjunto de afirmaciones con las que los encuestados deben estar de acuerdo o en desacuerdo. La consistencia interna le dice si las declaraciones son todos indicadores confiables de la satisfacción del cliente.

Cómo medirlo

Se utilizan dos métodos comunes para medir la consistencia interna.

  • Correlación promedio entre elementos: para un conjunto de medidas diseñadas para evaluar el mismo constructo, calcula la correlación entre los resultados de todos los pares posibles de elementos y luego calcula el promedio.
  • Fiabilidad dividida por la mitad: divide al azar un conjunto de medidas en dos conjuntos. Después de probar todo el conjunto con los encuestados, calcula la correlación entre los dos conjuntos de respuestas.
Ejemplo de consistencia interna

A un grupo de encuestados se les presenta un conjunto de declaraciones diseñadas para medir las mentalidades optimistas y pesimistas. Deben calificar su acuerdo con cada declaración en una escala del 1 al 5. Si la prueba es internamente consistente, un encuestado optimista generalmente debe otorgar calificaciones altas a los indicadores de optimismo y calificaciones bajas a los indicadores de pesimismo. La correlación se calcula entre todas las respuestas a las afirmaciones “optimistas”, pero la correlación es muy débil. Esto sugiere que la prueba tiene una baja consistencia interna

Mejorar la consistencia interna

Tenga cuidado al diseñar preguntas o medidas: las que pretenden reflejar el mismo concepto deben basarse en la misma teoría y formularse cuidadosamente.

¿Qué tipo de confiabilidad se aplica a mi investigación?

Es importante tener en cuenta la confiabilidad al planificar el diseño de su investigación, recopilar y analizar sus datos y redactar su investigación. El tipo de confiabilidad que debe calcular depende del tipo de investigación y su metodología.

¿Cuál es mi metodología?¿Qué forma de confiabilidad es relevante?
Medir una propiedad que espera que permanezca igual con el tiempo.Prueba-reprueba
Múltiples investigadores que realizan observaciones o calificaciones sobre el mismo tema.Fiabilidad entre
Usar dos pruebas diferentes para medir lo mismo.Formas paralelas
Usar una prueba de múltiples ítems donde todos los ítems están destinados a medir la misma variable.Consistencia interna

Conclusión

Como se abordó a lo largo del tema los tipos de confiabilidad se centran en la consistencia de un estudio de investigación o prueba de medición. Si los hallazgos en una investigación se replican consistentemente, son confiables. Se puede utilizar un coeficiente de correlación para evaluar el grado de fiabilidad. Si una prueba es confiable, debería mostrar una alta correlación positiva.

Por supuesto, es poco probable que se obtengan exactamente los mismos resultados cada vez que los participantes y las situaciones varían, pero una fuerte correlación positiva entre los resultados de la misma prueba indica confiabilidad.

Fuentes consultadas

  • Middleton, F. (2019, agosto 8). The 4 types of reliability in research. Scribbr. https://www.scribbr.com/methodology/types-of-reliability/
  • Mcleod, S. (s/f). Reliability in research: Definitions, types, & examples. Simplypsychology.org. Recuperado el 31 de agosto de 2022, de https://www.simplypsychology.org/reliability.html