Araştırma Makalesi
BibTex RIS Kaynak Göster

An Investigation of Item Bias in PISA Science Test in Terms of The Language and Culture

Yıl 2017, Cilt: 25 Sayı: 6, 2427 - 2446, 15.11.2017

Öz

In this study, differential item functioning (DIF) analyses of Science items of PISA 2006 tests were carried out between different samplings. Mantel Haenszel (MH), logistic regression(LR) and signed - unsigned area indexes methods were used. The research group of this study consists of the samples of Australia, Canada; England, Turkey. In order to investigate the sources of DIF field specialist opinions were consulted for released  multiple choice items of science test. It is observed that as the linguistic and cultural differences increased between countries, the number of DIF items increased. The number of DIF items varied significantly according to the procedure used. There was not consistency according to DIF detecting method in DIF or nonDIF items. Generally; like other results of bias researchs this research indicated that the main possible reasons for DIF is due to differences in translation, curriculum,cultural relevance, linguistic differences across Turkish and English versions of the tests of released items. 


Kaynakça

  • Abedalaziz N.,2011, Detecting DIF using Item Characteristic Curve Approaches.The International Journal of Educational and Psychological Assessment , Vol. 8(2)
  • Abedi J. (2008). Classification System for English Language Learners: Issues and Recommendations Educational Measurement: Issues and Practice; 27(3), 17-31.
  • Abedi, J. (2004). The No Child Left Behind Act and English language learners: Assessment and accountability issues. Educational Researcher, 33, 4-14.
  • Asil, M. (2010). Uluslararası Ögrenci Degerlendirme Programı (PISA) 2006 ögrenci anketinin kültürler arası esdegerliginin incelenmesi. Yayınlanmamıs doktora tezi, Hacettepe Üniversitesi, Ankara.
  • Asil, M. Ve Gelbal, S. (2012). PISA Öğrenci Anketinin Kültürler Arası Eşdeğerliği, Eğitim ve Bilim, 37, 166, 236-249.
  • Atalay K. (2010) PISA 2006 Öğrenci Anketinde Yer Alan Tutum Maddelerinin Değişen Madde Fonksiyonu Açısından İncelenmesi. Yüksek Lisans Tezi Eğitim Bilimleri Bölümü, Hacettepe Üniversitesi, Ankara.
  • Bakan Kalaycıoglu, D. ve Kelecioglu, H. (2011). Ögrenci Seçme Sınavı’nın Madde Yanlılıgı Açısından incelenmesi. Egitim ve Bilim, 36, 3-13.
  • Baker, Frank. (2001). The Basics of Item Response Theory. ERIC Clearinghouse on Assessment and Evaluation
  • Camilli, G. (2006). Test fairness. In R. L. Brennan (Ed.), Educational measurement (4th ed., pp. 221-256). Westport: American Council on Education ve Praeger Publishers.
  • Camilli, G., Shepard, L.A. (1994). Methods for identifying biased test items. Thousand Oaks: Sage.
  • Deveci Ateşok, N. (2008) Üniversitelerarası Kurul Yabancı Dil Sınavının Madde Yanlılığı Bakımından İncelenmesi; Doktora Tezi, Ölçme ve Değerlendirme Anabilim Dalı, Ankara Üniversitesi
  • Deveci, N. (2008). Üniversitelerarası Kurul Yabancı Dil Sınavı’nın Madde Yanlılığı bakımından incelenmesi. Ankara Üniversitesi Eğitim Bilimleri Enstitüsü Eğitimde Psikolojik Hizmetler Anabilim Dalı. Yayınlanmamış Doktora Tezi, Ankara.
  • Ercikan, K., (1998), Translation Effects In International Assessments, International Journal of Educational Research, 29, 543-553.
  • Gierl, M., Jodoin, G. M. Ackerman, T. A. (2000). Performance of Mantel‐Haenszel, Simultaneous Item Bias Test, and Logistic Regression when the proportion of DIF items is Large. Paper Presented at the Annual Meeting of the American educational Research Association (AERA). New Orleans, Louisiana, USA.
  • Girl M.J., KhaliqS.N.. (2001) Identifying Sources of Differential Item and Bundle Functioning on Translated Achievement Tests: A Confirmatory Analysis Journal of Educational Measurement; Vol. 38, No. 2,; pp. 164-187
  • Gondal, M., B,(2001). Pakistan`daki 4. Sınıf Ve Urdu (Ulusal Dil) Başarı Test Maddelerinın Madde Yanlılığı Açısından İncelenmesi. Yayınlanmamış Doktora Tezi, Orta Doğu Teknik Üniversitesi, Eğitim Bilim Bölümü, Ankara.
  • Grisay, A. (2003). Translation Procedures in OECD/PISA 2000 International Assessment. Language Testing, 20(2), 225-240
  • Hambleton, R. K., Swaminathan, H. (1985) Item Response Theory: Principles and Applications. Boston: Kluwer-Nijhoff Publishing.
  • Hambleton, R.K. Rogers, H., J.( 1996). Developing an Item Bias Review Form. Which is Available Through ERIC/AE.
  • Lord, M.F., Novic, R. M. (1968). Statistical theories of mental test scores. New York: Addison-Wesley Publishing Company.
  • Millsap, R.E. (2005). Four unresolved problems in studies of factorial invariance. In A. Maydeu-Olivares & J.J. McArdle (Eds.) Contemporary Psychometrics. (pp. 153-171) Mahwah, NJ: Lawrence Erlbaum.
  • Millsap, R.E. Meredith, W. (1992). Component analysis in multivariate aging research. Experimental Aging Research, 18, 203-212
  • Osterlind, S.J. (1983). Test item bias. Beverly Hills: Sage
  • Öğretmen, T. (2006). Uluslararası Okuma Becerilerinde Gelişim Projesi (PIRLS) Testinin psikometrik Özelliklerinin İncelenmesi: Türkiye- Amerika Birleşik 2001 Devletleri Örneği. Doktora Tezi. Eğitim Bilimleri Bölümü, Hacettepe Üniversitesi.
  • Öğretmen, T., Doğan, N. (2004). OKÖSYS Matematik alt testine ait maddelerin yanlılık analizi. İnönü Üniversitesi Eğitim Fakültesi Dergisi. 8, 61-76.
  • PISA 2006 Uluslararası Öğrenci Başarılarını Değerlendirme Programı Ulusal Ön Rapor (2007) http://earged.meb.gov.tr/dosyalar adresinden indirilmiştir.
  • Raju, N. S. (1990). The area between two item characteristic curves. Psychometrika, 53, 495–502.
  • Raju, N. S., Ellis, B. B. (2002). Differential item and test functioning. In F. Drasgow & N. Schmitt (Eds.), Measuring and analyzing behavior in organizations (p. 156-188). San Francisco, CA: Jossey-Bass.
  • Yıldırım H, Berberoglu G. ;Judgmental and statistical DIF analyses of the PISA-2003 mathematics literacy items. International Journal of Testing, 2009; 9(2):108-121. ( PsycInfo )
  • Yıldırım, H.(2006). The Dıfferentıal Item Functıonıng (DIF) Analysis Of Mathematics İtems in The İnternational Assessment Programs. Yayımlanmamış Doktora Tezi. Orta Doğu Teknik Üniversitesi, Matematik Eğitim Bölümü. Ankara.
  • Zieky, M. (2003). A DIF primer. Princeton, NJ: Educational Testing Service.
  • Zumbo, B. D. (1999). A handbook on the theory and methods of differential item functioning (DIF): Logistic regression modeling as a unitary framework for binary and Likert-type (ordinal) item scores. Ottawa, Canada: Directorate of Human Resources Research and Evaluation, Department of National Defense

PISA Fen Başarı Testinin Madde Yanlılığının Kültür ve Dil Açısından İncelenmesi

Yıl 2017, Cilt: 25 Sayı: 6, 2427 - 2446, 15.11.2017

Öz

Bu çalışmada, PISA 2006 testi maddelerinin farklı alt gruplarda DMF analizleri yürütülmüştür. DMF analizleri Mantel Haenszel (MH), lojistik regresyon (LR), Alan indeksleri yöntemleriyle gerçekleştirilmiştir. Türkiye, Avusturalya, İngiltere ve Kanada başarı testine ilişkin veriler kullanılmıştır. Uygulanan kitapçıklardan farklı kültür farklı dil gruplaması için birinci ve beşinci kitapçık; aynı kültür farklı dil ile farklı kültür aynı dil gruplaması için beşinci kitapçık seçilmiştir. DMF’nin olası nedenlerini belirlemek için alan uzmanlarının görüşlerine başvurulmuştur. Dilsel ve kültürel farklılıklar arttıkça DMF’li madde sayısının da arttığı gözlenmiştir. Kullanılan tekniğe göre DMF’li madde sayısı değişmektedir. DMF belirleme yöntemlerine göre DMF’li ve DMF’siz maddeler için bir tutarlılık bulunmamaktadır. Benzer yanlılık araştırmalarında olduğu gibi bu çalışmada da Türkçe ve İngilizce formdaki açıklanan maddelerdeki DMF’nin olası temel nedenleri; çeviri, program, kültür ve dile bağlı farklılıklar olarak belirlenmiştir. 

Kaynakça

  • Abedalaziz N.,2011, Detecting DIF using Item Characteristic Curve Approaches.The International Journal of Educational and Psychological Assessment , Vol. 8(2)
  • Abedi J. (2008). Classification System for English Language Learners: Issues and Recommendations Educational Measurement: Issues and Practice; 27(3), 17-31.
  • Abedi, J. (2004). The No Child Left Behind Act and English language learners: Assessment and accountability issues. Educational Researcher, 33, 4-14.
  • Asil, M. (2010). Uluslararası Ögrenci Degerlendirme Programı (PISA) 2006 ögrenci anketinin kültürler arası esdegerliginin incelenmesi. Yayınlanmamıs doktora tezi, Hacettepe Üniversitesi, Ankara.
  • Asil, M. Ve Gelbal, S. (2012). PISA Öğrenci Anketinin Kültürler Arası Eşdeğerliği, Eğitim ve Bilim, 37, 166, 236-249.
  • Atalay K. (2010) PISA 2006 Öğrenci Anketinde Yer Alan Tutum Maddelerinin Değişen Madde Fonksiyonu Açısından İncelenmesi. Yüksek Lisans Tezi Eğitim Bilimleri Bölümü, Hacettepe Üniversitesi, Ankara.
  • Bakan Kalaycıoglu, D. ve Kelecioglu, H. (2011). Ögrenci Seçme Sınavı’nın Madde Yanlılıgı Açısından incelenmesi. Egitim ve Bilim, 36, 3-13.
  • Baker, Frank. (2001). The Basics of Item Response Theory. ERIC Clearinghouse on Assessment and Evaluation
  • Camilli, G. (2006). Test fairness. In R. L. Brennan (Ed.), Educational measurement (4th ed., pp. 221-256). Westport: American Council on Education ve Praeger Publishers.
  • Camilli, G., Shepard, L.A. (1994). Methods for identifying biased test items. Thousand Oaks: Sage.
  • Deveci Ateşok, N. (2008) Üniversitelerarası Kurul Yabancı Dil Sınavının Madde Yanlılığı Bakımından İncelenmesi; Doktora Tezi, Ölçme ve Değerlendirme Anabilim Dalı, Ankara Üniversitesi
  • Deveci, N. (2008). Üniversitelerarası Kurul Yabancı Dil Sınavı’nın Madde Yanlılığı bakımından incelenmesi. Ankara Üniversitesi Eğitim Bilimleri Enstitüsü Eğitimde Psikolojik Hizmetler Anabilim Dalı. Yayınlanmamış Doktora Tezi, Ankara.
  • Ercikan, K., (1998), Translation Effects In International Assessments, International Journal of Educational Research, 29, 543-553.
  • Gierl, M., Jodoin, G. M. Ackerman, T. A. (2000). Performance of Mantel‐Haenszel, Simultaneous Item Bias Test, and Logistic Regression when the proportion of DIF items is Large. Paper Presented at the Annual Meeting of the American educational Research Association (AERA). New Orleans, Louisiana, USA.
  • Girl M.J., KhaliqS.N.. (2001) Identifying Sources of Differential Item and Bundle Functioning on Translated Achievement Tests: A Confirmatory Analysis Journal of Educational Measurement; Vol. 38, No. 2,; pp. 164-187
  • Gondal, M., B,(2001). Pakistan`daki 4. Sınıf Ve Urdu (Ulusal Dil) Başarı Test Maddelerinın Madde Yanlılığı Açısından İncelenmesi. Yayınlanmamış Doktora Tezi, Orta Doğu Teknik Üniversitesi, Eğitim Bilim Bölümü, Ankara.
  • Grisay, A. (2003). Translation Procedures in OECD/PISA 2000 International Assessment. Language Testing, 20(2), 225-240
  • Hambleton, R. K., Swaminathan, H. (1985) Item Response Theory: Principles and Applications. Boston: Kluwer-Nijhoff Publishing.
  • Hambleton, R.K. Rogers, H., J.( 1996). Developing an Item Bias Review Form. Which is Available Through ERIC/AE.
  • Lord, M.F., Novic, R. M. (1968). Statistical theories of mental test scores. New York: Addison-Wesley Publishing Company.
  • Millsap, R.E. (2005). Four unresolved problems in studies of factorial invariance. In A. Maydeu-Olivares & J.J. McArdle (Eds.) Contemporary Psychometrics. (pp. 153-171) Mahwah, NJ: Lawrence Erlbaum.
  • Millsap, R.E. Meredith, W. (1992). Component analysis in multivariate aging research. Experimental Aging Research, 18, 203-212
  • Osterlind, S.J. (1983). Test item bias. Beverly Hills: Sage
  • Öğretmen, T. (2006). Uluslararası Okuma Becerilerinde Gelişim Projesi (PIRLS) Testinin psikometrik Özelliklerinin İncelenmesi: Türkiye- Amerika Birleşik 2001 Devletleri Örneği. Doktora Tezi. Eğitim Bilimleri Bölümü, Hacettepe Üniversitesi.
  • Öğretmen, T., Doğan, N. (2004). OKÖSYS Matematik alt testine ait maddelerin yanlılık analizi. İnönü Üniversitesi Eğitim Fakültesi Dergisi. 8, 61-76.
  • PISA 2006 Uluslararası Öğrenci Başarılarını Değerlendirme Programı Ulusal Ön Rapor (2007) http://earged.meb.gov.tr/dosyalar adresinden indirilmiştir.
  • Raju, N. S. (1990). The area between two item characteristic curves. Psychometrika, 53, 495–502.
  • Raju, N. S., Ellis, B. B. (2002). Differential item and test functioning. In F. Drasgow & N. Schmitt (Eds.), Measuring and analyzing behavior in organizations (p. 156-188). San Francisco, CA: Jossey-Bass.
  • Yıldırım H, Berberoglu G. ;Judgmental and statistical DIF analyses of the PISA-2003 mathematics literacy items. International Journal of Testing, 2009; 9(2):108-121. ( PsycInfo )
  • Yıldırım, H.(2006). The Dıfferentıal Item Functıonıng (DIF) Analysis Of Mathematics İtems in The İnternational Assessment Programs. Yayımlanmamış Doktora Tezi. Orta Doğu Teknik Üniversitesi, Matematik Eğitim Bölümü. Ankara.
  • Zieky, M. (2003). A DIF primer. Princeton, NJ: Educational Testing Service.
  • Zumbo, B. D. (1999). A handbook on the theory and methods of differential item functioning (DIF): Logistic regression modeling as a unitary framework for binary and Likert-type (ordinal) item scores. Ottawa, Canada: Directorate of Human Resources Research and Evaluation, Department of National Defense
Toplam 32 adet kaynakça vardır.

Ayrıntılar

Konular Eğitim Üzerine Çalışmalar
Bölüm Derleme Makale
Yazarlar

Nezaket Bilge Uzun Bu kişi benim

Selahattin Gelbal Bu kişi benim

Yayımlanma Tarihi 15 Kasım 2017
Kabul Tarihi 27 Mart 2017
Yayımlandığı Sayı Yıl 2017 Cilt: 25 Sayı: 6

Kaynak Göster

APA Uzun, N. B., & Gelbal, S. (2017). An Investigation of Item Bias in PISA Science Test in Terms of The Language and Culture. Kastamonu Education Journal, 25(6), 2427-2446.

10037