Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/11531/88675
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.authorKreitchmann, Rodrigo S.es-ES
dc.contributor.authorNájera Álvarez, Pabloes-ES
dc.contributor.authorSanz, Susanaes-ES
dc.contributor.authorSorrel Luján, Miguel Ángeles-ES
dc.date.accessioned2024-05-29T13:40:48Z-
dc.date.available2024-05-29T13:40:48Z-
dc.date.issued2024-04-01es_ES
dc.identifier.issn0214-9915es_ES
dc.identifier.urihttps://doi.org/10.7334/psicothema2023.208es_ES
dc.identifier.urihttp://hdl.handle.net/11531/88675-
dc.descriptionArtículos en revistases_ES
dc.description.abstractAntecedentes: Garantizar la validez de evaluaciones requiere un examen exhaustivo del contenido de una prueba. Es común emplear expertos en la materia (EM) para evaluar la relevancia, representatividad y adecuación de los ítems. Este artículo propone integrar la teoría de respuesta al ítem (TRI) en las evaluaciones hechas por EM. La TRI ofrece parámetros de discriminación y umbral de los EM, evidenciando su desempeño al diferenciar ítems relevantes/ irrelevantes, detectando desempeños subóptimos, mejorando también la estimación de la relevancia de los ítems. Método: Se comparó el uso de la TRI frente a índices tradicionales (índice de validez de contenido y V de Aiken) en ítems de responsabilidad. Se evaluó la precisión de los EM al discriminar si los ítems medían responsabilidad o no, y si sus evaluaciones permitían predecir los pesos factoriales de los ítems. Resultados: Las puntuaciones de TRI identificaron bien los ítems de responsabilidad (R2 = 0,57) y predijeron sus cargas factoriales (R2 = 0,45). Además, mostraron validez incremental, explicando entre 11% y 17% más de varianza que los índices tradicionales. Conclusiones: La TRI en las evaluaciones de los EM mejora la alineación de ítems y predice mejor los pesos factoriales, mejorando validez del contenido de los instrumentos.es-ES
dc.description.abstractBackground: Ensuring the validity of assessments requires a thorough examination of the test content. Subject matter experts (SMEs) are commonly employed to evaluate the relevance, representativeness, and appropriateness of the items. This article proposes incorporating item response theory (IRT) into model assessments conducted by SMEs. Using IRT allows for the estimation of discrimination and threshold parameters for each SME, providing evidence of their performance in differentiating relevant from irrelevant items, thus facilitating the detection of suboptimal SME performance while improving item relevance scores. Method: Use of IRT was compared to traditional validity indices (content validity index and Aiken’s V) in the evaluation of conscientiousness items. The aim was to assess the SMEs’ accuracy in identifying whether items were designed to measure conscientiousness or not, and predicting their factor loadings. Results: The IRT-based scores effectively identified conscientiousness items (R2 = 0.57) and accurately predicted their factor loadings (R2 = 0.45). These scores demonstrated incremental validity, explaining 11% more variance than Aiken’s V and up to 17% more than the content validity index. Conclusions: Modeling SME assessments with IRT improves item alignment and provides better predictions of factor loadings, enabling improvement of the content validity of measurement instruments.en-GB
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoes-ESes_ES
dc.rightsCreative Commons Reconocimiento-NoComercial-SinObraDerivada Españaes_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/es_ES
dc.sourceRevista: Psicothema, Periodo: 1, Volumen: 36, Número: 2, Página inicial: 145, Página final: 153es_ES
dc.titleEnhancing Content Validity Assessment With Item Response Theory Modelinges_ES
dc.typeinfo:eu-repo/semantics/articlees_ES
dc.description.versioninfo:eu-repo/semantics/publishedVersiones_ES
dc.rights.holderes_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES
dc.keywordsContent validity Subject matter experts Item response theory Validity Test developmentes-ES
dc.keywordsValidez de contenido Expertos en la materia Teoría de respuesta al ítem Validez Desarrollo de testsen-GB
Aparece en las colecciones: Artículos

Ficheros en este ítem:
Fichero Tamaño Formato  
2024430134843559_2024 - Psicothema - Kreitchmann e.pdf1,91 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.