Madde tepki kuramına dayalı test eşitlemede ölçek dönüştürme yöntemlerinin, ortak madde oranının ve madde ayırt ediciliğinin eşitleme hatasına etkisi
Öz
Bu araştırmanın amacı Madde Tepki Kuramına madde tepki kuramına dayalı test eşitlemede ortak madde oranının, madde ayırt ediciliğinin ve ölçek dönüştürme yönteminin eşitlemenin standart hatasına etkisini incelemektir. Bu temel araştırma kapsamında, iki madde ayırt edicilik düzeyi (orta (alog-ort = 0,00) ve yüksek (alog-ort = 0,50)) × üç ortak madde oranı (%10, %20 ve %30) × dört ölçek dönüştürme yöntemi (Stocking & Lord, Haebara, Ortalama-Standart sapma ve Ortalama-Ortalama) olmak üzere toplam 24 simülasyon koşulu bulunmaktadır ve her koşul için 100 tekrar yapılmıştır. Araştırma sonucunda eşitlemenin standart hatasının en düşük olduğu ölçek dönüştürme yönteminin Stocking & Lord'un yöntemi, en yüksek olduğu yöntemin ise ortalama-ortalama yöntemi olduğu belirlenmiştir. Ayrıca hem ortak madde oranı hem de madde ayırt ediciliği arttıkça eşitlemenin standart hatasının azaldığı sonucuna varılmıştır. Ek olarak eşitlemenin standart hatasının en düşük olduğu koşul, ölçek dönüştürme yönteminin Stocking & Lord, ayırt edicilik düzeyinin yüksek ve ortak madde oranının %30 olduğu koşuldur. Eşitlemenin standart hatasının en yüksek olduğu koşul ise ölçek dönüştürme yönteminin ortalama-ortalama, ayırt edicilik düzeyinin orta ve ortak madde oranının %10 olduğu koşuldur. Son olarak eşitlemenin standart hatasının ortak madde oranına göre madde ayırt ediciliğinden daha çok etkilendiği sonucuna varılmıştır. Bu sonuçlara dayalı olarak araştırmacılara ve test geliştiricilere öneriler sunulmuştur.
Anahtar Kelimeler
Etik Beyan
Kaynakça
- Alordiah, C., & Oji, J. (2024). Test equating in educational assessment: A comprehensive framework for promoting fairness, validity, and cross-cultural equity. Asian Journal of Assessment in Teaching and Learning, 14(1), 70-84. https://doi.org/10.37134/ajatel.vol14.1.7.2024
- Andersson, B., & Wiberg, M. (2017). Item response theory observed-score Kernel equating. Psychometrika, 82(1), 48–66. https://doi.org/10.1007/s11336-016-9528-7
- Baker, F. (2001). The Basics of Item Response Theory. ERIC Clearinghouse.
- Baker, F. B. & Al-Karni, A. (1991). A comparison of two procedures for computing IRT equating coefficients. Journal of Educational Measurement, 28(2), 147–162. https://doi.org/10.1111/j.1745-3984.1991.tb00350.x
- Bastari, B. (2000). Linking multiple choice and constructed response items to a common proficiency scale (Order No. 44070296). [Unpublished doctoral dissertation, University of Massachusetts Amherst]. https://doi.org/10.7275/16132240
- Battauz, M. (2015). equateIRT: An R package for IRT test equating. Journal of Statistical Software, 68(7), 1–22. https://doi.org/10.18637/jss.v068.i07
- Bulut, O. (2013). Between-person and within-person subscore reliability: Comparison of unidimensional and multidimensional IRT models (Order No. 3589000). Available from ProQuest Dissertations & Theses Global. (1429501632). https://www.proquest.com/dissertations-theses/between-person-within-subscore-reliability/docview/1429501632/se-2
- Caldwell, L. J. (1984). A comparison of equating error in linear and Rasch model test equating methods (Order No. 8427294). Available from ProQuest Dissertations & Theses Global. (303292556). https://www.proquest.com/dissertations-theses/comparison-equating-error-linear-rasch-model-test/docview/303292556/se-2
Ayrıntılar
Birincil Dil
Türkçe
Konular
Eğitimde ve Psikolojide Ölçme Teorileri ve Uygulamaları
Bölüm
Araştırma Makalesi
Yazarlar
Yıldız Yıldırım
*
0000-0001-8434-5062
Türkiye
Tuba Gündüz
0000-0002-0921-9290
Türkiye
Fazilet Gül İnce Aracı
Türkiye
Yayımlanma Tarihi
30 Nisan 2026
Gönderilme Tarihi
25 Eylül 2023
Kabul Tarihi
9 Şubat 2026
Yayımlandığı Sayı
Yıl 2026 Sayı: 78