Araştırma Makalesi
BibTex RIS Kaynak Göster

Çoklu Cevaplı Madde Türünün Puanlanmasında Yöntemlerin Karşılaştırılması

Yıl 2025, Cilt: 42 Sayı: 1, 23 - 45, 01.05.2025
https://doi.org/10.52597/buje.1521294

Öz

Bu çalışmanın amacı, bir sorunun birden fazla doğru cevabının olabildiği çoklu cevaplı madde türünün puanlama yöntemlerini incelemektir. Bu doğrultuda, çoklu cevaplı madde türlerinden oluşan başarı testlerinin puanlanmasında kullanılan sekiz puanlama yönteminin madde güçlüğü, güvenirlik ve ayırt edicilik açısından farklılıkları incelenmiş ve karşılaştırılmıştır. Elde edilen verilere göre, çoklu cevaplı madde türünün hem sayısal hem de sözel dersler için uygulanabilir olduğu anlaşılmıştır. Ayrıca standardize edilmiş puanlama yöntemlerinin tek bir kurala bağlı kalmadan, ölçme ve değerlendirmenin amacına göre alternatifler sunarak farklı puanlama yöntemlerinin kullanılmasına olanak sağlayacak şekilde olduğu görülmüştür. Böylece çoklu cevaplı madde türünün kullanım amacına göre puanlama yöntemleri belirlenebilir ve benzer çalışmalarla madde türünün kullanımı yaygınlaştırılabilir.

Kaynakça

  • Akhun, İ. (1995). İstatistiklerin manidarlığı ve örneklem [Significance of statistics and sampling]. Özel Basım.
  • Auer, S. & Tarasowa, D. (2013). Balanced scoring method for multiple-mark questions. Proceedings of the 5th International Conference on Computer Supported Education (CSEDU-2013), 411–416. https://doi.org/10.5220/0004384304110416
  • Baghaei, P. & Amrahi, N. (2011). The effects of the number of options on the psychometric characteristics of multiple choice items. Psychological Test and Assessment Modeling, 53(2), 192–211.
  • Baykul, Y. (2015). Eğitimde ve psikolojide ölçme: Klasik test teorisi ve uygulaması.[Measurement in education and psychology: Classical test theory and practice]. Pegem Akademi.
  • Ben-Simon, A., Budescu, D. V. & Nevo, B. (1997). A comparative study of measures of partial knowledge in multiple-choice tests. Applied Psychological Measurement, 21(1), 65–88.
  • Doğan, N. (2009). Çoktan seçmeli testler [Multiple choice items]. In H. Atılgan (Ed.), Eğitimde ölçme ve değerlendirme (pp. 223–268). Anı.
  • Doğanay, A. (2007). Üst düzey düşünme becerilerinin öğretimi [Teaching higher order thinking skills]. In A. Doğanay (Ed.), Öğretim ilke ve yöntemleri (pp. 280–327). Pegem Akademi.
  • Domnich, A., Panatto, D., Arata, L. Bevilacqua, I., Apprato, L., Gasparini, R. & Amicizia, D. (2015). Impact of different scoring algorithms applied to multiple-mark survey items on outcome assessment: An in-field study on health-related knowledge. Journal of Preventive Medicine and Hygiene, 56(4), E162.
  • Duman, E. Z. (2018). Bir düşünme türü olarak esnek düşünme [Flexible thinking as a type of thinking]. Turkish Studies Social Sciences, 13(26), 547–561.
  • Erkuş, A. (2016). Psikolojide ölçme ve ölçek geliştirme-I [Measurement and scale development in psychology-I]. Pegem Akademi.
  • Frisbie, D. A. & Sweeney, D. C. (1982). The relative merits of multiple true-false achievement tests. Journal of Educational Measurement, 19(1), 29–35.
  • Hsu, T.C., Moss, P.A., Khampalikit, C. (1984). The merits of multiple-answer items as evaluated by using six scoring formulas. The Journal of Experimental Education, 52(3), 152–158.
  • Jodoin, M. G. (2003). Measurement efficiency of innovative item formats in computer-based testing. Journal of Measurement, 40(1), 1–15.
  • Karakaya, İ. & Doğan, Ö. (2020). Çoklu cevaplı madde türünün psikometrik özellikleri hakkında ödm çalışanı, alan uzmanı ve akademisyenlerin görüşlerinin incelenmesi [Examination of the opinions of the staff of the assessment and evaluation center, field specialists and academicians about the psychometric properties of the multiple response item type] Ankara II. Uluslararası Bilimsel Araştırmalar Kongresi Bildirileri, 1, 271–279.
  • Karasar, N. (2012). Bilimsel irade algı çerçevesi ile bilimsel araştırma yöntemi [Scientific research method with the framework of perception of scientific will]. Nobel Yayınları.
  • Kilmen, S. (2012). Madde analizi, madde seçimi ve yorumlanması [Item analysis, item selection, and interpretation]. In N. Çıkrıkçı-Demirtaşlı (Ed.), Eğitimde ölçme ve değerlendirme, (pp. 363–385). Elhan.
  • Koç, N. (2009), Eğitimimizde psikolojik testlerin (standart testlerin) kullanım durumu, sorunlar ve öneriler. [Use of psychological tests (standard tests) in our education, problems and suggestions] I. Ulusal Eğitimde ve Psikolojide Ölçme ve Değerlendirme Kongresi bildirileri 1, 305–316.
  • Liu, O. L., Lee, H. S., & Linn, M. C. (2011). An Investigation of Explanation Multiple-Choice Items in Science Assessment. Educational Assessment, 16(3), 164–184. https://doi.org/10.1080/10627197.2011.611702
  • Ma, X. (2004). An investigation of alternative approaches to scoring multiple response items on a certification exam. (Publication No. 305176174) [Doctoral dissertation, University of Massachusetts Amherst]. ProQuest Dissertations Publishing.
  • Morgan, M. (1979). MCQ: An interactive computer program for multiple-choice self-testing. Biochemical Education, 7(3), 67–69.
  • Muckle, T., Becker, K. A. & Wu, B. (2011). Investigating the multiple answer multiple choice item format. Presentation and scoring consideration. 2011 Annual Meeting of the National Council on Measurement in Education, New Orleans, LA.
  • Özçelik, D. A. (2013). Test hazırlama kılavuzu [Test preparation guide]. Pegem Akademi.
  • Peterson, A., Craig M. & Danny, P. (2016). Employing multiple answer multiple choice questions. Proceedings of the 2016 ACM Conference on Innovation and Technology in Computer Science Education, 252–253. https://doi.org/10.1145/2899415.2925503
  • Ripkey, D., Case, S. & Swanson, D. (1996). A “new” item format for assessing aspects of clinical competence. Academic Medicine, 71(10), 34–36.
  • Siddiqui, N. I., Bhavsar, V. H., Bhavsar, A. V., & Bose, S. (2016). Contemplation on marking scheme for Type X multiple choice questions, and an illustration of a practically applicable scheme. Indian journal of pharmacology, 48(2), 114–121.
  • Tan, Ş. (2010). Öğretimde ölçme ve değerlendirme [Measurement and evaluation in teaching]. Pegem Akademi.
  • Tan, Ş. (2016). SPSS ve Excel uygulamalı temel istatistik-1 [Basic statistics-1 with SPSS and Excel]. Pegem Akademi.
  • Turgut, M. F. & Baykul, Y. (2013). Eğitimde ölçme ve değerlendirme [Measurement and evaluation in education]. Pegem Akademi.
  • Umay, A. (1997). Yanıtlayıcı davranışlarının analizi yolu ile matematikte problem çözümleri için bir güvenirlik ve geçerlik araştırması [A reliability and validity study for problem solving in mathematics through the analysis of respondent behavior]. Hacettepe University Journal of Education, 13, 47–56.
  • Verbic, S. (2012). Information value of multiple response questions. Psihologija, 45(4), 467–485.
  • Wan, L. & Henly, G. A. (2012). Measurement properties of two innovative item formats in a computer-based test. Applied Measurement in Education, 25, 58–78.

The Comparison of Methods in Multiple Response Item Type Scoring

Yıl 2025, Cilt: 42 Sayı: 1, 23 - 45, 01.05.2025
https://doi.org/10.52597/buje.1521294

Öz

The aim of this study is to examine the scoring methods of the multiple-answer item type, where a question can have more than one correct answer. Concordantly, the differences regarding test difficulty, reliability, item difficulty and discrimination among eight scoring methods to score achievement tests comprising of multiple response item types were examined and compared. According to the data obtained, it is understood that the multiple-answer item type is applicable for both numerical and verbal lessons. In addition, it has been found that standardized scoring methods are in a way that allows the use of different scoring methods by offering alternatives according to the purpose of the measurement and evaluation, without being bound by a single rule. Thus, scoring methods can be determined according to the purpose of using the multiple-answer item type, and the use of the item type can be made widespread with similar studies.

Kaynakça

  • Akhun, İ. (1995). İstatistiklerin manidarlığı ve örneklem [Significance of statistics and sampling]. Özel Basım.
  • Auer, S. & Tarasowa, D. (2013). Balanced scoring method for multiple-mark questions. Proceedings of the 5th International Conference on Computer Supported Education (CSEDU-2013), 411–416. https://doi.org/10.5220/0004384304110416
  • Baghaei, P. & Amrahi, N. (2011). The effects of the number of options on the psychometric characteristics of multiple choice items. Psychological Test and Assessment Modeling, 53(2), 192–211.
  • Baykul, Y. (2015). Eğitimde ve psikolojide ölçme: Klasik test teorisi ve uygulaması.[Measurement in education and psychology: Classical test theory and practice]. Pegem Akademi.
  • Ben-Simon, A., Budescu, D. V. & Nevo, B. (1997). A comparative study of measures of partial knowledge in multiple-choice tests. Applied Psychological Measurement, 21(1), 65–88.
  • Doğan, N. (2009). Çoktan seçmeli testler [Multiple choice items]. In H. Atılgan (Ed.), Eğitimde ölçme ve değerlendirme (pp. 223–268). Anı.
  • Doğanay, A. (2007). Üst düzey düşünme becerilerinin öğretimi [Teaching higher order thinking skills]. In A. Doğanay (Ed.), Öğretim ilke ve yöntemleri (pp. 280–327). Pegem Akademi.
  • Domnich, A., Panatto, D., Arata, L. Bevilacqua, I., Apprato, L., Gasparini, R. & Amicizia, D. (2015). Impact of different scoring algorithms applied to multiple-mark survey items on outcome assessment: An in-field study on health-related knowledge. Journal of Preventive Medicine and Hygiene, 56(4), E162.
  • Duman, E. Z. (2018). Bir düşünme türü olarak esnek düşünme [Flexible thinking as a type of thinking]. Turkish Studies Social Sciences, 13(26), 547–561.
  • Erkuş, A. (2016). Psikolojide ölçme ve ölçek geliştirme-I [Measurement and scale development in psychology-I]. Pegem Akademi.
  • Frisbie, D. A. & Sweeney, D. C. (1982). The relative merits of multiple true-false achievement tests. Journal of Educational Measurement, 19(1), 29–35.
  • Hsu, T.C., Moss, P.A., Khampalikit, C. (1984). The merits of multiple-answer items as evaluated by using six scoring formulas. The Journal of Experimental Education, 52(3), 152–158.
  • Jodoin, M. G. (2003). Measurement efficiency of innovative item formats in computer-based testing. Journal of Measurement, 40(1), 1–15.
  • Karakaya, İ. & Doğan, Ö. (2020). Çoklu cevaplı madde türünün psikometrik özellikleri hakkında ödm çalışanı, alan uzmanı ve akademisyenlerin görüşlerinin incelenmesi [Examination of the opinions of the staff of the assessment and evaluation center, field specialists and academicians about the psychometric properties of the multiple response item type] Ankara II. Uluslararası Bilimsel Araştırmalar Kongresi Bildirileri, 1, 271–279.
  • Karasar, N. (2012). Bilimsel irade algı çerçevesi ile bilimsel araştırma yöntemi [Scientific research method with the framework of perception of scientific will]. Nobel Yayınları.
  • Kilmen, S. (2012). Madde analizi, madde seçimi ve yorumlanması [Item analysis, item selection, and interpretation]. In N. Çıkrıkçı-Demirtaşlı (Ed.), Eğitimde ölçme ve değerlendirme, (pp. 363–385). Elhan.
  • Koç, N. (2009), Eğitimimizde psikolojik testlerin (standart testlerin) kullanım durumu, sorunlar ve öneriler. [Use of psychological tests (standard tests) in our education, problems and suggestions] I. Ulusal Eğitimde ve Psikolojide Ölçme ve Değerlendirme Kongresi bildirileri 1, 305–316.
  • Liu, O. L., Lee, H. S., & Linn, M. C. (2011). An Investigation of Explanation Multiple-Choice Items in Science Assessment. Educational Assessment, 16(3), 164–184. https://doi.org/10.1080/10627197.2011.611702
  • Ma, X. (2004). An investigation of alternative approaches to scoring multiple response items on a certification exam. (Publication No. 305176174) [Doctoral dissertation, University of Massachusetts Amherst]. ProQuest Dissertations Publishing.
  • Morgan, M. (1979). MCQ: An interactive computer program for multiple-choice self-testing. Biochemical Education, 7(3), 67–69.
  • Muckle, T., Becker, K. A. & Wu, B. (2011). Investigating the multiple answer multiple choice item format. Presentation and scoring consideration. 2011 Annual Meeting of the National Council on Measurement in Education, New Orleans, LA.
  • Özçelik, D. A. (2013). Test hazırlama kılavuzu [Test preparation guide]. Pegem Akademi.
  • Peterson, A., Craig M. & Danny, P. (2016). Employing multiple answer multiple choice questions. Proceedings of the 2016 ACM Conference on Innovation and Technology in Computer Science Education, 252–253. https://doi.org/10.1145/2899415.2925503
  • Ripkey, D., Case, S. & Swanson, D. (1996). A “new” item format for assessing aspects of clinical competence. Academic Medicine, 71(10), 34–36.
  • Siddiqui, N. I., Bhavsar, V. H., Bhavsar, A. V., & Bose, S. (2016). Contemplation on marking scheme for Type X multiple choice questions, and an illustration of a practically applicable scheme. Indian journal of pharmacology, 48(2), 114–121.
  • Tan, Ş. (2010). Öğretimde ölçme ve değerlendirme [Measurement and evaluation in teaching]. Pegem Akademi.
  • Tan, Ş. (2016). SPSS ve Excel uygulamalı temel istatistik-1 [Basic statistics-1 with SPSS and Excel]. Pegem Akademi.
  • Turgut, M. F. & Baykul, Y. (2013). Eğitimde ölçme ve değerlendirme [Measurement and evaluation in education]. Pegem Akademi.
  • Umay, A. (1997). Yanıtlayıcı davranışlarının analizi yolu ile matematikte problem çözümleri için bir güvenirlik ve geçerlik araştırması [A reliability and validity study for problem solving in mathematics through the analysis of respondent behavior]. Hacettepe University Journal of Education, 13, 47–56.
  • Verbic, S. (2012). Information value of multiple response questions. Psihologija, 45(4), 467–485.
  • Wan, L. & Henly, G. A. (2012). Measurement properties of two innovative item formats in a computer-based test. Applied Measurement in Education, 25, 58–78.
Toplam 31 adet kaynakça vardır.

Ayrıntılar

Birincil Dil İngilizce
Konular Sınıfiçi Ölçme Uygulamaları, Eğitimde Ölçme ve Değerlendirme (Diğer)
Bölüm Özgün Çalışma
Yazarlar

Ömer Doğan 0000-0001-5169-520X

İsmail Karakaya 0000-0003-4308-6919

Yayımlanma Tarihi 1 Mayıs 2025
Gönderilme Tarihi 23 Temmuz 2024
Kabul Tarihi 17 Mart 2025
Yayımlandığı Sayı Yıl 2025 Cilt: 42 Sayı: 1

Kaynak Göster

APA Doğan, Ö., & Karakaya, İ. (2025). The Comparison of Methods in Multiple Response Item Type Scoring. Bogazici University Journal of Education, 42(1), 23-45. https://doi.org/10.52597/buje.1521294

Aksi belirtilmedikçe bu sitedeki tüm içerik Creative Commons Atıf 4.0 Uluslararası Lisansı (CC BY 4.0) kapsamında lisanslanmıştır.