Principal Arriba Enviar apuntes Buscar Mapa del web

Medición II       

Esta Web ha obtenido el Certificado de Calidad y ha sido acreditada por la la SEEI

Principal
Arriba
Novedades
Introducción
Presentación
Postgrado Enfermería
Apuntes de clase
Trabajos Enfermería
Evaluación
Hipervínculos
Descarga Software
Buscadores
San Miguel de Salinas
Alicante

  

 

 

Apuntes: 

METODOLOGÍA DE LA INVESTIGACIÓN I.

*Colaboración de Nieves Martínez López.
*Profesores de la asignatura:
         Julio Cabrero García.
         Miguel Richart Martínez.

INTRODUCCIÓN, CONCEPTOS, MEDICIÓN Y ERROR.

ÍNDICE:

1-Fiabilidad. 

El coeficiente de fiabilidad intramétodo. Sesgo y fiabilidad intermétodo. Relación entre fiabilidad y validez. Medidas de fiabilidad. Factores que afectan a la fiabilidad.

2-Validez de criterio.

Sesgo y validez. El criterio o patrón oro. El coeficiente de validez. Validez de criterio concurrente. Sensibilidad y especificidad. Validez predictiva.

3-Validez de constructo.

Constructos e indicadores. Diseños de validez de constructo. Validez de contenido.

4-Construcción de escalas.

Tipos de escalas. Análisis psicometríco de escalas.

1-FIABILIDAD. EL COEFICIENTE DE FIABILIDAD INTRAMÉTODO. SESGO Y FIABILIDAD INTERMÉTODO. RELACIÓN ENTRE FIABILIDAD Y VALIDEZ. MEDIDAS DE FIABILIDAD. FACTORES QUE AFECTAN A LA FIABILIDAD.

Al hablar de fiabilidad no se habla del instrumento de medida, sino de la situación donde se realiza la medida.

El coeficiente de fiabilidad se simboliza   “r x x´” puesto que se elabora a partir de una correlación entre dos medidas equivalentes (también llamado “rtt”, “tes-retest”) o coeficiente de fiabilidad intramétodo. Sus valores oscilan entre [ 0, 1] ausencia de fiabilidad y fiabilidad perfecta, también puede ser expresada mediante un porcentaje.

El coeficiente de fiabilidad es igual al cociente entre la varianza observada y la varianza total o verdadera, si ambos tipos de varianza coinciden la fiabilidad sería igual a 1 y sino coinciden nada sería 0, de aquí derivan unas formulas para cuantificar la fiabilidad de una situación de medida.

¿Qué procedimiento existe para cuantificar la fiabilidad de una unidad de medida?. -Se distinguen dos situaciones:
1.      Fiabilidad en sentido estricto, relacionada con la consistencia interna de la medida.
2.      Fiabilidad que tiene en cuenta la varianza de las observaciones con el tiempo, tiene en cuenta aspectos externos.

Clinimetría: medición de variables clínicas.

Fiabilidad es la consistencia interna de la medida, entendida como equivalencia, puede ser medida de tres formas distintas:

1.-FIABILIDAD COMO EQUIVALENCIA.

Es el coeficiente KAPPA, es un coeficiente estadístico que se emplea para cuantificar el grado de acuerdo entre los observadores, corrige el factor azar. Es el estudio de fiabilidad por equivalencia o concordancia entre observadores.

Cuanto más se acerca al cero más azar hay, es casi decir que el diagnostico se hace echando una moneda al aire.

El autor es el que determina a partir de que valor se admite el principio Kappa, en que punto se sitúa el corte. Suele ser considerado el valor KAPPA como muy bueno a partir de 0,8 y muy malo por debajo de 0,20.

Formula matemática de determinación:

K = Po – Pe / 1 – Pe

Pe  = Porcentaje esperado por puro azar (multiplicación de las secuencias marginales)
Po  = Porcentaje observado.

Ejemplo:
21        Rading A y Rading B   (de acuerdo en normal)
17        Rading A y Rading B   (de acuerdo en benigno)

Aplicando la formula:      21  +  17  +  15  +  1  /85  =  54  /  58  =  0,64
0,64 = porcentaje de acuerdo observado. 

Si se suman los valores donde existe acuerdo y se divide por el número total de observaciones (acuerdos + desacuerdos) se sobrestima la fiabilidad, pero no se corrige el azar, mientras que el coeficiente Kappa si corrige el azar al incluir el porcentaje esperado.

La fiabilidad por equivalencia también se denomina fiabilidad de pruebas paralelas o equivalentes, alude a dos situaciones que no son idénticas pero que son paralelas o equivalentes. Lo mejor sería partir de un mismo conjunto de items.

Ejemplo: prueba de 40 Items, se divide en 2, pares y nones, como parten del mismo universo son dos pruebas paralelas.

2.- FIABILIDAD DEL TEST-RETEST.

Medimos y volvemos a medir. Es un modo más directo que el otro, pero menos adecuado, sus valores oscilan entre [ 0, 1]. Fiabilidad es sinónimo de estabilidad.

Se mide en un primer momento (test) y posteriormente se vuelve a medir (retest)

Se trata de ver hasta que punto un conjunto de medidas son reproducibles en el tiempo, el grado en que las puntuaciones son estables sería el grado de fiabilidad. Por ello es sinónimo de estabilidad (las condiciones pueden cambiar).

La mayoría de las variables biológicas no admiten este tipo de fiabilidad. Se viola el supuesto de independencia. Sobrestima la fiabilidad de la situación de medida. Siempre hay cambios.

Ejemplo: un cuestionario siempre es más familiar la segunda vez que la primera.

3.- FIABILIDAD COMO CONSISTENCIA INTERNA.

Es la fiabilidad en sentido estricto.

Ejemplo: cuestionario ansiedad – estado –STAI, los ITEMS han de estar balanceados para intentar romper la aquiescencia (tendencia a estar de acuerdo con el enunciado), si las preguntas tienen un sentido positivo la aquiescencia es mayor. Como la aquiescencia aumenta si los items son en sentido positivo se deben ir intercalando con items negativos. Se deben utilizar muchos items para llegar a un solo valor.

Esta es la forma de determinar la fiabilidad de la medida, no se pueden usar en aquellas medidas que utilizan pocos items.

La consistencia interna, es el grado común que tienen todos los items, en el ejemplo que estamos viendo es el grado de ansiedad que mide cada items. Para determinarla se emplea el coeficiente (Alfa) de CRONBACH, es la unidad de medida de la fiabilidad, llamada también de consistencia interna.

Según la teoria renovada la fiabilidad se mide con el coeficiente alfa de Cronbach, según la teoría clásica la fiabilidad se mide con el coeficiente de Kappa.

Si el instrumento es mutidimensional o multifacético no es correcto medir la consistencia interna de todos, sino de las diferentes facetas por separado.

2-VALIDEZ DE CRITERIO. SESGO Y VALIDEZ. EL CRITERIO O PATRÓN ORO. EL COEFICIENTE DE VALIDEZ. VALIDEZ DE CRITERIO CONCURRENTE. SENSIBILIDAD Y ESPECIFICIDAD. VALIDEZ PREDICTIVA.

Validez es el grado en que una situación o instrumento de medida, mide lo que realmente pretende o quiere medir. A la validez en ocasiones se le denomina “exactitud”. Validez es el criterio fundamental para valorar si el resultado obtenido en un estudio es el adecuado.

La validez puede introducir error sistemático que afecta al tamaño y dirección del efecto encontrado. El error de medida se suma al error de muestreo disminuyendo la capacidad. El error sistemático se puede confundir con el efecto real que es el efecto sistemático, el hecho de que existan unos sistemas se puede confundir con el resultado final. Una situación de baja fiabilidad enmascara el efecto.

Ejemplos:
·        Cuestionario que tiene baja fiabilidad interna, se pasa en dos hospitales, pero como tiene tanto error no sabemos cuales son las diferencias, es decir si las diferencias de un hospital a otro se deben a que realmente existen o a la baja fiabilidad del cuestionario.
·        Cuestionario de satisfacción, si hay un defecto en el cuestionario, nos puede dar igual nivel de satisfacción no siendo verdad.

¿Qué puede medir un cuestionario de satisfacción, si no es satisfacción? -Podría medir confianza, seguridad, ...

(El grado en que no se mide la satisfacción, es el grado en que no tiene fiabilidad)

La forma de determinar la validez es múltiple.

1.- VALIDEZ APARENTE (FACE VALIDITY)

Es el grado en que una situación de medida parece que es válida desde el punto de vista del observado. Es apariencia de validez. Es importante porque influye en el grado la colaboración de la persona que está siendo observada.

2.- VALIDEZ DE CRITERIO.

Es una comparación entre nuestra situación de medida y un estándar al que se le llama criterio. Es el que intuitivamente mejor refleja la definición. Es disponer de otra situación de la que conozco su validez.

Ejemplo:  X  (mi criterio)          Y  (situación estándar)

Criterio: Medida valida del concepto. Grado en que X se aproxima a Y, es el grado de validez de X.

Ejemplo: Detección del cáncer de mama, se compara la radiografía con la biopsia y con el resultado de anatomía patológica.

Si existe suficiente consenso entre la comunidad científica, se determinará un criterio o GOLD STANDARD (PATRON DE ORO). Es el patrón de comparación de cualquier medida para determinar si es válida. A éste se deberá comparar cualquier medida que se aprecie de ser válida.

El instrumento y el estándar pueden ser medidos a la vez, en cuyo caso se llama “validez de criterio concurrente” y cuando el instrumento y el estándar no son medidos a la vez se habla de “validez de criterio predictiva” en este último caso anteriormente ya debemos conocer o tener los datos del estándar y lo que se obtiene es la predicción.

Ejemplo:
        
X se puede medir en un momento 1
                       Y se puede medir en un momento 2, pero no se puede medir antes que X 

Validez de Criterio predictiva:
        X se mide en el momento 1
        Y se mide en el momento 2.

Validez Concurrente:
        X e Y se miden en el mismo momento.

Ejemplos:
·        Test para medir el coeficiente de inteligencia y el rendimiento académico (criterio) ---- Validez predictiva.
·        Realización de mamografía y biopsia (criterio) ---- Validez concurrente.

VALIDEZ CONCURRENTE.

La forma de determinarla implica tener dos situaciones de medida diferentes: uno es el Predictor (X) y otro el Criterio (Y), medimos a los mismos sujetos y tenemos dos observaciones de resultado: una con X y la otra con Y. ¿Cómo cuantificamos el grado en que es válido?.

- Si la escala de medida es de intervalo o de razón, se usará el COEFICIENTE DE CORRELACIÓN O TEST DE PEARSON, el resultado puede oscilar entre:            -1 y      +1.

Interpretación en cuanto a validez:

Cuanto más cercano a 1 esté el coeficiente en términos relativos (sin tener en cuenta el signo) mayor es el grado de validez y cuanto más cercano esté a 0, menor será la validez.

Las situaciones de máxima validez serán las más próximas a +1 y a –1, el signo +/- dependerá de la dirección en la relación.

RELACIÓN ENTRE LA FIABILIDAD Y LA VALIDEZ.

La fiabilidad nos marca el techo máximo de la validez. La fiabilidad es condición necesaria, pero no imprescindible, para la validez. Nunca la fiabilidad puede ser mayor que la validez.

La fiabilidad es el grado en que una situación de medida carece de error aleatorio, es el grado de varianza sistemática en la situación de medida.

Nos informa de la parte que es fiable, es decir ¿Cuánto de ella es valida? -Puede ser toda, en este caso la fiabilidad y la validez son iguales. Lo normal es que el coeficiente de fiabilidad sea menor que el coeficiente de validez.

Ejemplo: medida física de la T.A. Se pueden diseñar aparatos para medir que recojan perfectamente la definición.

Cuando no hay criterios, hay que idearlos o inventarlos, cuando hay criterios, el diseño de validez es sencillo.

Otro ejemplo puede ser la “Escala de Norton” que mide el riesgo de padecer ulceras por presión.

-Es una validez de criterio predictiva. -Hasta que punto predice ulceras por presión, siendo un criterio observacional.

CONTAMINACIÓN DE CRITERIO.

Es un diseño de validez de criterio, las puntuaciones del criterio deben ser ciegas a las puntuaciones en el predictor ya que sino, se produce contaminación del criterio.

Los juicios en el criterio han de ser independientes del predictor.

Ejemplos:
·        Si para valorar un examen (que es el criterio) el profesor ve la foto de la persona que va a evaluar, lo cual le evoca experiencias de clase (positivas o negativas), hablamos de contaminación del criterio.
·        Mirar la T.A. de días anteriores de un paciente antes de tomársela, puede contaminar mi escucha.

EJEMPLO DE VALIDEZ DE CRITERIO.

Estudio de validación de la medida de la temperatura corporal. Se validan los procedimientos de toma de la temperatura en pacientes quirúrgicos.

“Core” es el “Criterio” -patrón oro, es la temperatura tomada en la arteria pulmonar mediante un catéter y un sensor.

Las cinco mediciones se realizan concurrentemente o casi simultáneamente. Se utiliza el “coeficiente de correlación de Pearson”.

Toma de datos:
1.      Temperatura en la axila con termómetro eléctrico.
2.      Temperatura en la axila con termómetro de mercurio: tiempo 5 minutos.
3.      Temperatura en la axila con termómetro de mercurio: tiempo 10 minutos.
4.      Temperatura rectal con termómetro de mercurio.
5.      Temperatura sublingual con termómetro de mercurio.

Escala de correlación de Pearson.

Se realizan dos mediciones (X, X´) en cada lugar de la toma de datos, dando los siguientes resultados en grados centígrados: 1º (35 y 35,1), 2º (38 y 37,9), 3º (37 y 38,5), 4º (36 y 36) y 5º (37 y 36,5)

Coeficiente de correlación: cuando juntando los puntos estos se encuentran en una línea recta.

Cuánto más se aproxima a la línea recta, menor dispersión de datos y mayor relación entre X y X´, relación casi perfecta y lineal.

Una correlación nula significa que no hay ninguna línea recta pues la correlación es muy dispersa.

El coeficiente de correlación de Pearson mide la linealidad; cuánto más se aleja de la línea recta que une todos los puntos menos correlación hay.Correlación nula es cuando no existe línea recta, la dispersión de los datos es máxima.

Cuando la variable es dicotómica, el análisis pasa a llamarse “análisis de sensibilidad y especificidad”.

El análisis se puede representar de la siguiente forma: puede darse el caso de que la enfermedad (Y) esté presente o ausente y de que dando la prueba (X) positiva esté presente la enfermedad (a) o no esté presente (b) y por otro lado puede darse la circunstancia de que dando la prueba negativa la enfermedad esté presente (c) o no lo esté (d)
Y = Enfermedad (criterio)
X = Prueba (predictor).

El diagnostico de la enfermedad (Y) nos dirá si los pacientes la tienen o la tienen (presencia/ausencia de enfermedad).

El clínico usa la prueba para no tener que usar el criterio, ya que es más sencillo de utilizar y menos costoso que el criterio (biopsia, anatomía patológica, ...), se usan los predictor si estos son buenos.

Cuando se hace un análisis de validez es cuando se usan las dos pruebas (X e Y), pero en la clínica se empleará X (la prueba predictiva).
a = casos positivos en criterio y en predictor, positivo en X e Y.
b = casos negativos en criterio y positivo en predictor, posit. X y negat. X.
c = enfermos según el criterio y no el predictor, negat. X y posit. Y.
d = no enfermos según el criterio y según la predictor, negat. X y negat. Y.

Resultados del criterio:
·        Enfermos            =  a  +  c
·        Sanos                 =  b  +  d

PREVALENCIA = enfermos (a + c) dividido por el total (a + b + c + d)

SENSIBILIDAD de la prueba dice: X es igual a la proporción de personas que tienen la enfermedad y que son diagnosticas como tales en la prueba diagnostica:

SENSIBILIDAD =  enfermos (a) dividido entre enfermos y no enfermos que han dado enfermos en la prueba (a + c)

Sensibilidad máxima 100 %.

La sensibilidad del predictor será: Cantidad de personas que tienen la enfermedad y son diagnosticadas por la prueba (predictor). Si esta es del 100 % la sensibilidad es máxima.

ESPECIFICIDAD es la proporción de personas que no tienen la enfermedad y en los cuales la prueba diagnostica también es negativa.

ESPECIFICAD = no enfermos (d) dividido entre los no enfermos que han dado positivo y negativo en la prueba (b + d)

Si identificamos como enfermos a los que no lo están , la especificada será baja.

Una prueba es sensible y especifica si es capaz de identificar a todos los que están enfermos como tales y a todos los sanos como tales.

Es difícil tener una prueba muy sensible y a la vez muy especifica, hay que tener información sobre las dos aspectos.

VALIDEZ PREDICTIVA.

La sensibilidad y especificidad son la información que necesitamos para decidir la validez de una prueba, nos ayudará a decidir si utilizar una prueba diagnostica o no (validez de criterio). Puede ser positiva o negativa.

Una vez aplicamos la prueba, la sensibilidad y especificidad pasan a un segundo plano y empieza a ser importante la “validez predictiva” de esa prueba. Si al utilizar el predictor obtengo un resultado positivo, ¿Cómo puedo saber la probabilidad de que realmente sea positivo? – Para ello será necesario saber el valor predictivo positivo (VP+) y el valor predictivo negativo (VP-).

Valor Predictivo Positivo (+) = a / a+b

Valor Predictivo Negativo (-) = d / c+ d

Siendo:
a: positivos con la enfermedad.
b: falsos positivos.
c: falsos negativos.
d: negativos sin la enfermedad.

Si el V.P. + es de 0,5, se puede estar o no estar enfermo, ya que ello equivale al 50%, no es una buena formula, nuestro juicio es del 50%, si pasa del 50% estamos superando el azar y sí sería valido.

La sensibilización y especificidad no se ven afectados por la prevalencia.

V.P. (+) y V.P. (-) se ven afectados por la prevalencia, llamada también probabilidad a priori.

Existe una relación entre el V.P. y la Prevalencia:

V.P. (+): Aumenta cuando aumenta la prevalencia y Disminuye cuando disminuye la prevalencia.

(Relación directamente proporcional).

V.P. (-):  Aumenta cuando disminuye la prevalencia y Disminuye cuando aumenta la prevalencia

(Relación inversamente proporcional).

Si una prueba es muy sensible será muy informativa si el resultado es negativo (más que si fuera positivo), lo que quiere decir que probablemente esté sano.

   Si la prueba es muy especifica (capaz de identificar a los que no estén enfermos) y nos dice que la persona no está enferma, con mucha probabilidad será así.

CURVA DE ROC.

Cuando se tienen varios datos hay que optimizar donde es mejor expresar el punto de corte. Los resultados de una prueba diagnostica no tienen por qué ser dicotómicos, pueden ser continuos. Muchas variables cuantitativas y continuas se dicotomizan para tomar una decisión de tratar o no a alguien.

Las Curvas de Roc optimizan el punto de corte. El análisis y la determinación de la curva de ROC se hace mediante la determinación de la sensibilidad y especificidad, es decir, ver la fiabilidad en distintos puntos de la prueba (máximo número de puntos posibles).

Se realizan trazando un diagrama en el que la ordenada es la sensibilidad y la abscisa la especificidad.

Cuanto más sensible y especifica sea la prueba (representación: puntos más hacia arriba y más hacia la izquierda) más se alejará de la diagonal, el mejor punto de corte es el que más se aleja de la diagonal.

También nos permite comparar dos pruebas.

3-VALIDEZ DE CONSTRUCTO. CONSTRUCTOS E INDICADORES. DISEÑOS DE VALIDEZ DE CONSTRUCTO. VALIDEZ DE CONTENIDO.

La validez de constructo o de concepto es esencial cuando tenemos variables cualitativas pero no tenemos buenos criterios, se utiliza sobre todo para medidas y variables psicosociales.

Los conceptos no se miden, se miden los indicadores de la definición operativa. La validez de constructo examina hasta que punto algo (indicador + definición operativa) mide adecuadamente el concepto. Los indicadores son las características observables.

La validez de constructo mide hasta qué punto el indicador o la definición operativa mide el concepto.

FORMAS DE VALIDACIÓN DE CONSTRUCTO.

1.      TÉCNICA DE LOS GRUPOS CONOCIDOS.

Tenemos una opinión que hay que valorar y no tenemos criterio o estandart, el procedimiento consiste en aplicar el instrumento a dos o más grupos y ver si discrimina.

Ejemplo: Un grupo de pacientes crónicos compuesto por un grupo de pacientes hipertensos y otro grupo de pacientes con esclerosis múltiple. Si mi instrumento de medida discrimina a ambos grupos(es decir me dice que los hipertensos tienen mayor calidad de vida que los pacientes con esclerosis múltiple) es que tiene validez.

2. - VALIDEZ ESTRUCTURAL O FACTORIAL.

La V. estructural intenta averiguar el grado en que los indicadores de un concepto reflejan dicho concepto, constituyen dicho concepto o son parte de dicho concepto. Es un procedimiento más sofisticado que el anterior.

Ejemplo: Perfil de salud de Nottinghan (PSN), mide las siguientes dimensiones o facetas:
·        Energía.
·        Aislamiento social.
·        Reacciones emocionales.
·        Dolor.
·        Movilidad.
·        Sueño.

Para cada faceta o dimensión hay varios ítems o indicadores, la validez estructural o factorial intenta discernir el grado en que los indicadores de un concepto reflejan dicho concepto, son parte de él o lo constituyen.

Ejemplo: Los ítems de dolor deben medir de modo subyacente la faceta del dolor.

El análisis factorial es una técnica estadística que examina la estructura interna de la unidad de medida, mide si los indicadores tienen algo en común, es decir si tienen un común denominador, mide las correlaciones entre los indicadores e intenta descubrir si hay algo subyacente. Los ítems deben tener un común denominador que debe aflorar estadísticamente. La estructura subyacente o común denominador se llama factor (faceta).

En el ejemplo anterior si una persona tiene dolor, debe de puntuar alto todos los indicadores de dolor.

Para variables psicosociales es una técnica muy empleada.

3. - MATRIZ-MULTIRRIESGO-MULTIMETODO(MTMM).

Es la tercera técnica o procedimiento de Validez de Constructo, es el más sofisticado de todos aunque se utiliza poco, por ser complejo en el sentido de que requiere utilizar muchas medidas diferentes. El instrumento de medida introduce una fuente de variación, es la racionalidad.

Ejemplo: medir el grado de satisfacción mediante un cuestionario, una entrevista y la observación y posteriormente se estudiará la convergencia entre los tres resultados.

Que se debe esperar en las medidas, que haya convergencia (es decir gran concordancia entre lo que miden los tres métodos). El método de medida influye mucho en las puntuaciones como ocurre en el cuestionario, hay que ver hasta que punto las mediciones son convergentes para una misma medición.

MTMM nos permite medir varios métodos con varias variables.

Si tengo tres métodos y dos variables, tendré seis operaciones a medir. Si tengo tres métodos con tres variables, tender nueve operaciones a medir. Nos permite cuantificar como pesa el método de medida en las distintas variables. Se realiza en pocas ocasiones, pero siempre para algo muy concreto.

VALIDEZ CONVERGENTE: Es el grado de convergencia para una misma variable entre diferentes métodos.

VALIDEZ DISCRIMINANTE: Las convergentes en términos de valor absoluto debe ser más alta que el coeficiente de validez discriminante. Es la que se da entre los rasgos a través de los métodos.

La Validez de constructo se compone de la variable convergente y de la variable divergente.

CUATRO TIPOS DE COEFICIENTES:

1. - Coeficiente de Fiabilidad.
Misma variable, mismo fenómeno-mismo método, diseños de fiabilidad.
2. - Método de validez convergente.
Misma variable (rasgo) distinto método.
3. - Coeficiente monométodo multirasgo.
Variables distintas con el mismo método.
4. - Coeficiente de multirasgo-multimétodo.
Distintas variables y distintos métodos.

La fiabilidad es mayor, cuanto más cercana esté a la unidad.

Cuando los coeficientes son más alto es porque la varianza del método es mayor ---- Coeficiente multimétodo.

¿Cómo se analiza? – mediante el análisis factorial confirmatorio: visualmente y mediante técnicas estadísticas muy sofisticadas (análisis confirmatorial).

4. - RED NOMOLÓGICA.

Es el más importante y el más utilizado. Establece una red entre las variables. Lo que se mide se hace a través del cuestionario, no mido conceptos, sino definiciones operacionales.

Ejemplo: medición de la satisfacción del paciente mediante las expectativas del paciente, el grado de cumplimiento de los compromisos, el número de encuentros con el sistema de salud, el nivel ocupacional (clase social), la recuperación de la salud, ...

 Red Nomológica: cuando la teoría se correlaciona con la practica. Los resultados que aprecio en la teoría se corresponden con los resultados que obtengo en la practica.

Es el más empleado en cuanto a validez de constructo. Se usa cuando no hay validez de criterio.

4. CONSTRUCCIÓN DE ESCALAS. TIPOS DE ESCALAS. ANÁLISIS PSICOMETRÍCO DE ESCALAS.

 CLASIFICACIÓN DE LAS ESCALAS DE MEDIDA.

   La más simple es la “NOMINAL”, en ella la operación empírica básica se establece por la determinación de igual y el sistema formal por la correlación de los números. Ejemplo: los números de clase, los números de los futbolistas, etc.(1, 2, 3, 4, 5, ...)

   En un aspecto más importante de escala, tenemos la escala “ORDINAL” en ella la operación empírica que se lleva a cabo es la determinación de mayor o menor respecto a otro. Ejemplo: el sistema empírico, nos dice que en las personas difiere el grado de dolor, más o menos dolor. Habrá que crear un sistema formal que recoja este hecho utilizando el termino mayor o menor ( X  =  Y; X< Y, X> Y)

Más compleja la “ESCALA DE INTERVALO O DE DISTANCIA”, se utiliza cuando se determina la igualdad de intervalo entre los puntos, se precisa el orden jerárquico en función de un atributo. Ejemplo: medición de la temperatura:

El agua se congela a 0ºC y hierve a 100ºC.

En un nivel todavía más completo tenemos la “ESCALA DE RAZÓN”, se utiliza cuando se determina la igualdad de razones. En la misma debe haber igual distancia entre los grados sucesivos, supone un cero racional, suministra información sobre el orden jerárquico según un atributo, a los intervalos entre ellos y la magnitud absoluta a cada objeto (-30, -15, 0, 15, 30)

 ESCALA DE MEDIDA.            CONDICIÓN ENTRE SISTEMAS.

Nominal.                                 Determinación de igualdad.

Ordinal.                                  Determinación de mayor a menor.

Intervalo.                               Determinación de igualdad entre intervalos.

Razón.                                   Determinación de la igualdad de razón.

También y en un plano más sencillo se pueden diferenciar las siguientes escalas de medida:

   CUALITATIVAS:       * Nominales y * Ordinales.

   CUANTITATIVAS:    * Intervalo y * Razón.


Principal ] Novedades ] Introducción ] Presentación ] Postgrado Enfermería ] Apuntes de clase ] Trabajos Enfermería ] Evaluación ] Hipervínculos ] Descarga Software ] Buscadores ] San Miguel de Salinas ] Alicante ]

Usuarios On line:          
Última modificación: 13 de enero de 2013
Enviar correo electrónico a webmaster@aniorte-nic.net con preguntas o comentarios sobre este sitio Web.
Webmaster: Nicanor Aniorte Hernández
Copyright © 2001 N. ANIORTE
Política de Privacidad / Confidencialidad      Política de Financiación     Política de Publicidad

Nosotros subscribimos Los Principios del código HONcode de la Fundación Salud en la Red Nosotros subscribimos los Principios del código HONcode.
Compruébelo aquí.

     Estamos en la red desde el 27 de julio de 2000