Research Article
BibTex RIS Cite

Matematik Eğitiminde Bilgi İşlemsel Düşünme ve Programlama Araçları Ölçeği'nin (CTEMS) Türkçe Uyarlama: Geçerlilik ve Güvenilirlik Çalışması

Year 2026, Volume: 9 Issue: 1, 85 - 109, 31.01.2026

Abstract

Bu çalışmanın amacı, Matematik Eğitiminde Hesaplamalı Düşünme ve Programlama Araçları Ölçeği’ni (CTEMS) Türkçeye uyarlamak ve geçerlik ile güvenirliğini incelemektir. Araştırma, 168 matematik öğretmen adayı ile yürütülen bir ölçek uyarlama deseni kullanılarak gerçekleştirilmiştir. Yapı geçerliği ilk olarak açımlayıcı faktör analizi (AFA) ile incelenmiş ve faktör yapılarının toplam varyansın %55 ile %65’ini açıkladığı belirlenmiştir (KMO = .884, p < .001). Elde edilen yapı daha sonra kısmi en küçük kareler yapısal eşitlik modellemesine (PLS-SEM) dayalı doğrulayıcı faktör analizi (DFA) ile test edilmiştir. DFA sonuçları, önerilen beş boyutlu ölçme modelini desteklemiş; faktör yüklerinin .57 ile .86 arasında değiştiği ve tüm boyutlar için AVE değerlerinin .50’nin üzerinde olduğu görülmüştür. Bu bulgular, model uyumunun ve yapı geçerliğinin kabul edilebilir düzeyde olduğunu göstermektedir. Güvenirlik analizleri, tüm boyutların yeterli iç tutarlılığa sahip olduğunu ortaya koymuştur (Cronbach’s α = .70–.88; Bileşik Güvenirlik [CR] = .83–.91). Test–tekrar test güvenirlik katsayıları ise .72 ile .83 arasında değişmektedir. Ayrıca yakınsak ve ayırt edici geçerlik ölçütlerinin de sağlandığı belirlenmiştir. Bunun yanında, hesaplamalı düşünme eğitimi almış öğretmen adaylarının puanlarının, bu eğitimi almamış olanlara kıyasla anlamlı düzeyde daha yüksek olduğu bulunmuştur (p < .001, büyük etki büyüklüğü). Genel olarak bulgular, CTEMS’in Türkçe formunun, matematik eğitiminde hesaplamalı düşünme ve programlama araçlarının pedagojik entegrasyonunu değerlendirmek için geçerli ve güvenilir bir ölçme aracı olduğunu göstermektedir.

Ethical Statement

ÇALIŞMADA ETİK KURALLARA UYULMUŞTUR.

References

  • Angeli, C., & Giannakos, M. (2020). Computational thinking education: Issues and challenges. Computers in human behavior, 105, 106185.
  • Artigue, M. (2002). Learning mathematics in a CAS environment: The genesis of a reflection about instrumentation and the dialectics between technical and conceptual work. International journal of computers for mathematical learning, 7(3), 245-274.
  • Beaton, D. E., Bombardier, C., Guillemin, F., & Ferraz, M. B. (2000). Guidelines for the process of cross-cultural adaptation of self-report measures. Spine, 25(24), 3186-3191.
  • Brennan, K., & Resnick, M. (2012). New frameworks for studying and assessing the development of computational thinking. In Annual American Educational Research Association Meeting, Vancouver, BC, Canada.
  • Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2nd ed.). Hillsdale, NJ: Lawrence Erlbaum Associates.
  • Carretero, S., Vuorikari, R., & Punie, Y. (2017). DigComp 2.1: The Digital Competence Framework for Citizens with eight proficiency levels and examples of use. Joint Research Centre Report EUR 28558 EN. Luxembourg: Publication Office of the European Union. Retrieved from https://doi. org/10.2760/38842
  • Costello, A. B., & Osborne, J. W. (2005). Best praBİDices in exploratory faBİDor analysis: Four recommendations for getting the most from your analysis. PraBİDical Assessment, Research & Evaluation, 10(7), 1-9.
  • Çetin, İ., Otu, T., & Oktaç, A. (2020). Adaption of the Computational Thinking Test into Turkish. Turkish Journal of Computer and Mathematics Education (TURCOMAT), 11(2), 343-360.
  • Dagienė, V., Pelikis, E., & Stupurienė, G. (2015). Introducing computational thinking through a contest on informatics: Problem-solving and gender issues. Information Sciences/Informacijos Mokslai, 73.
  • Dagienė, V., Futschek, G., & Stupurienė, G. (2019). Creativity in solving short tasks for learning computational thinking. Constructivist Foundations, 14(3), 382–396.
  • Diamantopoulos, A., & Siguaw, J. A. (2006). Formative versus reflective indicators in organizational measure development: A comparison and empirical illustration. British journal of management, 17(4), 263-282.
  • Dolmacı, A., & Akhan, N. E. (2020). Bilişimsel Düşünme Becerileri Ölçeğinin Geliştirilmesi: Geçerlik ve Güvenirlik Çalışması. Itobiad: Journal of the Human & Social Science Researches 9(3).
  • Ertugrul-Akyol, B. (2019). Development of computational thinking scale: Validity and reliability study. International Journal of Educational Methodology, 5(3), 421-432. https://doi.org/10.12973/ijem.5.3.421
  • Fabrigar, L. R., Wegener, D. T., MacCallum, R. C., & Strahan, E. J. (1999). Evaluating the use of exploratory faBİDor analysis in psychological research. Psychological Methods, 4(3), 272-299.
  • Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of marketing research, 18(1), 39-50.
  • Fraillon, J., Ainley, J., Schulz, W., Duckworth, D., & Friedman, T. (2019). Computational thinking framework. In IEA international computer and information literacy study 2018 assessment framework (pp. 25-31). Cham: Springer International Publishing.
  • George, D., & Mallery, P. (2010). SPSS for Windows step by step: A simple guide and reference (10th ed.). Pearson.
  • Gök, A., & Karamete, A. (2023). A validity and reliability study of the Turkish computational thinking scale. Journal of Educational Technology and Online Learning, 6(2), 421-437.
  • Gülbahar, Y., Kert, S. B., & Kalelioğlu, F. (2019). Bilgi işlemsel düşünme becerisine yönelik öz yeterlik algısı ölçeği: Geçerlik ve güvenirlik çalışması. Turkish Journal of Computer and Mathematics Education (TURCOMAT), 10(1), 1-29.
  • Grover, S., & Pea, R. (2013). Computational thinking in K–12: A review of the state of the field. Educational researcher, 42(1), 38-43.
  • Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2010). Multivariate Data Analysis.
  • Hair, J. F., Ringle, C. M., & Sarstedt, M. (2011). PLS-SEM: Indeed a silver bullet. Journal of Marketing theory and Practice, 19(2), 139-152.
  • Hair, J. F., Astrachan, C. B., Moisescu, O. I., Radomir, L., Sarstedt, M., Vaithilingam, S., & Ringle, C. M. (2021). Executing and interpreting applications of PLS-SEM: Updates for family business researchers. Journal of Family Business Strategy, 12(3), 100392.
  • Hambleton, R. K., Merenda, P. F., & Spielberger, C. D. (2005). Issues, designs, and technical guidelines for adapting tests into multiple languages and cultures. Adapting educational and psychological tests for cross-cultural assessment, 1, 3-38.
  • Henseler, J., Ringle, C. M., & Sarstedt, M. (2015). A new criterion for assessing discriminant validity in variance-based structural equation modeling. Journal of the academy of marketing science, 43(1), 115-135.
  • Hoyles, C., & Noss, R. (2021). Mapping a way forward for computing and mathematics: Reflections on the UCL ScratchMaths project. In Proceedings of the 2020 online seminar series on programming in mathematics education (pp. 6-10).
  • Kallia, M., van Borkulo, S. P., Drijvers, P., Barendsen, E., & Tolboom, J. (2021). Characterising computational thinking in mathematics education: a literature-informed Delphi study. Research in mathematics education, 23(2), 159-187.
  • Karalar, H., & Alpaslan, M. M. (2021). Assessment of Eighth Grade Students' Domain-General Computational Thinking Skills. International Journal of Computer Science Education in Schools, 5(1), 35-47.
  • Kline, R. B. (2016). Principles and Practice of Structural Equation Modeling. Korkmaz, Ö., Çakir, R., & Özden, M. Y. (2017). A validity and reliability study of the computational thinking scales (CTS). Computers in human behavior, 72, 558-569.
  • Kukul, V., & Karatas, S. (2019). Computational thinking self-efficacy scale: Development, validity and reliability. Informatics in Education, 18(1), 151-164.
  • Lemke, C. (2003). Standards for a modern world: Preparing students for their future. Learning and Leading with Technology, 31(1), 6–9.
  • Moreno-León, J., & Robles, G. (2015). Analyze your Scratch projects with Dr. Scratch and assess your computational thinking skills. In Scratch conference (pp. 12-15).
  • Nasah, A., DaCosta, B., Kinsell, C., & Seok, S. (2010). The digital literacy debate: An investigation of digital propensity and information and communication technology. Educational Technology Research and Development, 58(5), 531–555.
  • Nunnally, J. C., & Bernstein, I. H. (1994). Psychometric theory (3rd ed.). New York, NY: McGraw-Hill. Pangrazio, L. (2016). Reconceptualising critical digital literacy. Discourse: Studies in the Cultural Politics of Education, 37(2), 163–174. https://doi.org/10.1080/01596306.2014.942836.
  • Pörn, R., Hemmi, K., & Kallio-Kujala, P. (2021).Inspiring or confusing? Finnish primary teachers’ perceptions of teaching programming.LUMAT: International Journal on Math, Science and Technology Education, 9(1), 366–396.
  • Román-González, M., Pérez-González, J. C., & Jiménez-Fernández, C. (2017). Which cognitive abilities underlie computational thinking? Criterion validity of the Computational Thinking Test. Computers in human behavior, 72, 678-691.
  • Román-González, M., Pérez-González, J. C., Moreno-León, J., & Robles, G. (2018). Can computational talent be detected? Predictive validity of the Computational Thinking Test. International Journal of Child-Computer Interaction, 18, 47-58.
  • Sands, P., Yadav, A., & Good, J. (2018). Computational thinking in K-12: In-service teacher perceptions of computational thinking. In Computational thinking in the STEM disciplines: Foundations and research highlights (pp. 151-164). Cham: Springer International Publishing.
  • Shute, V. J., Sun, C., & Asbell-Clarke, J. (2017). Demystifying computational thinking. Educational research review, 22, 142-158.
  • Tabachnick, B. G., Fidell, L. S., & Ullman, J. B. (2007). Using multivariate statistics (Vol. 5, No. 7). Boston, MA: pearson.
  • Thomas, M. O., & Hong, Y. Y. (2013). Teacher Integration of Technology into Mathematics Learning. International Journal for Technology in Mathematics Education, 20(2).
  • Thomas, M. O., & Palmer, J. M. (2013). Teaching with digital technology: Obstacles and opportunities. In The mathematics teacher in the digital era: An international perspective on technology focused professional development (pp. 71-89). Dordrecht: Springer Netherlands.
  • Tsai, M. J., Liang, J. C., & Hsu, C. Y. (2021). The computational thinking scale for computer literacy education. Journal of Educational Computing Research, 59(4), 579-602.
  • Turgut, M., Kohanová, I., & Gjøvik, Ø. (2024). Developing survey-based measures of mathematics teachers’ pedagogical technology knowledge: a focus on computational thinking and programming tools. Research in Mathematics Education, 1-24.
  • Üzümcü, Ö. (2023). Computational thinking scale: the predictive role of metacognition in the context of higher order thinking skills. Journal for the Education of Gifted Young Scientists, 11(3), 423-437. https://doi.org/10.17478/jegys.1355722
  • Voogt, J., Fisser, P., Good, J., Mishra, P., & Yadav, A. (2015). Computational thinking in compulsory education: Towards an agenda for research and practice. Education and information technologies, 20(4), 715-728.
  • Yağcı, M. (2019). A valid and reliable tool for examining computational thinking skills. Education and Information Technologies, 24(1), 929-951.
  • Weintrop, D., Beheshti, E., Horn, M., Orton, K., Jona, K., Trouille, L., & Wilensky, U. (2016). Defining computational thinking for mathematics and science classrooms. Journal of science education and technology, 25(1), 127-147.
  • Wing, J. M. (2006). Computational thinking. Communications of the ACM, 49(3), 33-35.
  • Wing, J. M. (2011). Research Notebook: Computational Thinking–What and Why?.

The Turkish Adaptation of the Computational Thinking and Programming Tools in Mathematics Education Scale (CTEMS): A Validity and Reliability Study

Year 2026, Volume: 9 Issue: 1, 85 - 109, 31.01.2026

Abstract

The aim of this study was to adapt the Computational Thinking and Programming Tools in Mathematics Education Scale (CTEMS) into Turkish and to examine its validity and reliability. The study employed a scale adaptation design with a sample of 168 pre-service mathematics teachers. Construct validity was first explored through exploratory factor analysis (EFA), which showed that the factor structures explained between 55% and 65% of the total variance (KMO = .884, p < .001), and the resulting structure was subsequently tested using confirmatory factor analysis based on partial least squares structural equation modeling (PLS-SEM). The confirmatory factor analysis (CFA) results supported the proposed five-dimensional measurement model, with factor loadings ranging from .57 to .86 and AVE values exceeding .50 for all dimensions, indicating acceptable model adequacy and construct validity. Reliability analyses showed that all dimensions demonstrated adequate internal consistency (Cronbach’s α = .70–.88; CR = .83–.91), and test–retest reliability coefficients ranged from .72 to .83, while convergent and discriminant validity criteria were met. In addition, pre-service teachers who had received training in computational thinking scored significantly higher than those without such training (p < .001, large effect size). Overall, the findings indicate that the Turkish version of the CTEMS is a valid and reliable instrument for assessing the pedagogical integration of computational thinking and programming tools in mathematics education.

Ethical Statement

Çalışmada Etik Kurallara uyulmuştur.

References

  • Angeli, C., & Giannakos, M. (2020). Computational thinking education: Issues and challenges. Computers in human behavior, 105, 106185.
  • Artigue, M. (2002). Learning mathematics in a CAS environment: The genesis of a reflection about instrumentation and the dialectics between technical and conceptual work. International journal of computers for mathematical learning, 7(3), 245-274.
  • Beaton, D. E., Bombardier, C., Guillemin, F., & Ferraz, M. B. (2000). Guidelines for the process of cross-cultural adaptation of self-report measures. Spine, 25(24), 3186-3191.
  • Brennan, K., & Resnick, M. (2012). New frameworks for studying and assessing the development of computational thinking. In Annual American Educational Research Association Meeting, Vancouver, BC, Canada.
  • Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2nd ed.). Hillsdale, NJ: Lawrence Erlbaum Associates.
  • Carretero, S., Vuorikari, R., & Punie, Y. (2017). DigComp 2.1: The Digital Competence Framework for Citizens with eight proficiency levels and examples of use. Joint Research Centre Report EUR 28558 EN. Luxembourg: Publication Office of the European Union. Retrieved from https://doi. org/10.2760/38842
  • Costello, A. B., & Osborne, J. W. (2005). Best praBİDices in exploratory faBİDor analysis: Four recommendations for getting the most from your analysis. PraBİDical Assessment, Research & Evaluation, 10(7), 1-9.
  • Çetin, İ., Otu, T., & Oktaç, A. (2020). Adaption of the Computational Thinking Test into Turkish. Turkish Journal of Computer and Mathematics Education (TURCOMAT), 11(2), 343-360.
  • Dagienė, V., Pelikis, E., & Stupurienė, G. (2015). Introducing computational thinking through a contest on informatics: Problem-solving and gender issues. Information Sciences/Informacijos Mokslai, 73.
  • Dagienė, V., Futschek, G., & Stupurienė, G. (2019). Creativity in solving short tasks for learning computational thinking. Constructivist Foundations, 14(3), 382–396.
  • Diamantopoulos, A., & Siguaw, J. A. (2006). Formative versus reflective indicators in organizational measure development: A comparison and empirical illustration. British journal of management, 17(4), 263-282.
  • Dolmacı, A., & Akhan, N. E. (2020). Bilişimsel Düşünme Becerileri Ölçeğinin Geliştirilmesi: Geçerlik ve Güvenirlik Çalışması. Itobiad: Journal of the Human & Social Science Researches 9(3).
  • Ertugrul-Akyol, B. (2019). Development of computational thinking scale: Validity and reliability study. International Journal of Educational Methodology, 5(3), 421-432. https://doi.org/10.12973/ijem.5.3.421
  • Fabrigar, L. R., Wegener, D. T., MacCallum, R. C., & Strahan, E. J. (1999). Evaluating the use of exploratory faBİDor analysis in psychological research. Psychological Methods, 4(3), 272-299.
  • Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of marketing research, 18(1), 39-50.
  • Fraillon, J., Ainley, J., Schulz, W., Duckworth, D., & Friedman, T. (2019). Computational thinking framework. In IEA international computer and information literacy study 2018 assessment framework (pp. 25-31). Cham: Springer International Publishing.
  • George, D., & Mallery, P. (2010). SPSS for Windows step by step: A simple guide and reference (10th ed.). Pearson.
  • Gök, A., & Karamete, A. (2023). A validity and reliability study of the Turkish computational thinking scale. Journal of Educational Technology and Online Learning, 6(2), 421-437.
  • Gülbahar, Y., Kert, S. B., & Kalelioğlu, F. (2019). Bilgi işlemsel düşünme becerisine yönelik öz yeterlik algısı ölçeği: Geçerlik ve güvenirlik çalışması. Turkish Journal of Computer and Mathematics Education (TURCOMAT), 10(1), 1-29.
  • Grover, S., & Pea, R. (2013). Computational thinking in K–12: A review of the state of the field. Educational researcher, 42(1), 38-43.
  • Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2010). Multivariate Data Analysis.
  • Hair, J. F., Ringle, C. M., & Sarstedt, M. (2011). PLS-SEM: Indeed a silver bullet. Journal of Marketing theory and Practice, 19(2), 139-152.
  • Hair, J. F., Astrachan, C. B., Moisescu, O. I., Radomir, L., Sarstedt, M., Vaithilingam, S., & Ringle, C. M. (2021). Executing and interpreting applications of PLS-SEM: Updates for family business researchers. Journal of Family Business Strategy, 12(3), 100392.
  • Hambleton, R. K., Merenda, P. F., & Spielberger, C. D. (2005). Issues, designs, and technical guidelines for adapting tests into multiple languages and cultures. Adapting educational and psychological tests for cross-cultural assessment, 1, 3-38.
  • Henseler, J., Ringle, C. M., & Sarstedt, M. (2015). A new criterion for assessing discriminant validity in variance-based structural equation modeling. Journal of the academy of marketing science, 43(1), 115-135.
  • Hoyles, C., & Noss, R. (2021). Mapping a way forward for computing and mathematics: Reflections on the UCL ScratchMaths project. In Proceedings of the 2020 online seminar series on programming in mathematics education (pp. 6-10).
  • Kallia, M., van Borkulo, S. P., Drijvers, P., Barendsen, E., & Tolboom, J. (2021). Characterising computational thinking in mathematics education: a literature-informed Delphi study. Research in mathematics education, 23(2), 159-187.
  • Karalar, H., & Alpaslan, M. M. (2021). Assessment of Eighth Grade Students' Domain-General Computational Thinking Skills. International Journal of Computer Science Education in Schools, 5(1), 35-47.
  • Kline, R. B. (2016). Principles and Practice of Structural Equation Modeling. Korkmaz, Ö., Çakir, R., & Özden, M. Y. (2017). A validity and reliability study of the computational thinking scales (CTS). Computers in human behavior, 72, 558-569.
  • Kukul, V., & Karatas, S. (2019). Computational thinking self-efficacy scale: Development, validity and reliability. Informatics in Education, 18(1), 151-164.
  • Lemke, C. (2003). Standards for a modern world: Preparing students for their future. Learning and Leading with Technology, 31(1), 6–9.
  • Moreno-León, J., & Robles, G. (2015). Analyze your Scratch projects with Dr. Scratch and assess your computational thinking skills. In Scratch conference (pp. 12-15).
  • Nasah, A., DaCosta, B., Kinsell, C., & Seok, S. (2010). The digital literacy debate: An investigation of digital propensity and information and communication technology. Educational Technology Research and Development, 58(5), 531–555.
  • Nunnally, J. C., & Bernstein, I. H. (1994). Psychometric theory (3rd ed.). New York, NY: McGraw-Hill. Pangrazio, L. (2016). Reconceptualising critical digital literacy. Discourse: Studies in the Cultural Politics of Education, 37(2), 163–174. https://doi.org/10.1080/01596306.2014.942836.
  • Pörn, R., Hemmi, K., & Kallio-Kujala, P. (2021).Inspiring or confusing? Finnish primary teachers’ perceptions of teaching programming.LUMAT: International Journal on Math, Science and Technology Education, 9(1), 366–396.
  • Román-González, M., Pérez-González, J. C., & Jiménez-Fernández, C. (2017). Which cognitive abilities underlie computational thinking? Criterion validity of the Computational Thinking Test. Computers in human behavior, 72, 678-691.
  • Román-González, M., Pérez-González, J. C., Moreno-León, J., & Robles, G. (2018). Can computational talent be detected? Predictive validity of the Computational Thinking Test. International Journal of Child-Computer Interaction, 18, 47-58.
  • Sands, P., Yadav, A., & Good, J. (2018). Computational thinking in K-12: In-service teacher perceptions of computational thinking. In Computational thinking in the STEM disciplines: Foundations and research highlights (pp. 151-164). Cham: Springer International Publishing.
  • Shute, V. J., Sun, C., & Asbell-Clarke, J. (2017). Demystifying computational thinking. Educational research review, 22, 142-158.
  • Tabachnick, B. G., Fidell, L. S., & Ullman, J. B. (2007). Using multivariate statistics (Vol. 5, No. 7). Boston, MA: pearson.
  • Thomas, M. O., & Hong, Y. Y. (2013). Teacher Integration of Technology into Mathematics Learning. International Journal for Technology in Mathematics Education, 20(2).
  • Thomas, M. O., & Palmer, J. M. (2013). Teaching with digital technology: Obstacles and opportunities. In The mathematics teacher in the digital era: An international perspective on technology focused professional development (pp. 71-89). Dordrecht: Springer Netherlands.
  • Tsai, M. J., Liang, J. C., & Hsu, C. Y. (2021). The computational thinking scale for computer literacy education. Journal of Educational Computing Research, 59(4), 579-602.
  • Turgut, M., Kohanová, I., & Gjøvik, Ø. (2024). Developing survey-based measures of mathematics teachers’ pedagogical technology knowledge: a focus on computational thinking and programming tools. Research in Mathematics Education, 1-24.
  • Üzümcü, Ö. (2023). Computational thinking scale: the predictive role of metacognition in the context of higher order thinking skills. Journal for the Education of Gifted Young Scientists, 11(3), 423-437. https://doi.org/10.17478/jegys.1355722
  • Voogt, J., Fisser, P., Good, J., Mishra, P., & Yadav, A. (2015). Computational thinking in compulsory education: Towards an agenda for research and practice. Education and information technologies, 20(4), 715-728.
  • Yağcı, M. (2019). A valid and reliable tool for examining computational thinking skills. Education and Information Technologies, 24(1), 929-951.
  • Weintrop, D., Beheshti, E., Horn, M., Orton, K., Jona, K., Trouille, L., & Wilensky, U. (2016). Defining computational thinking for mathematics and science classrooms. Journal of science education and technology, 25(1), 127-147.
  • Wing, J. M. (2006). Computational thinking. Communications of the ACM, 49(3), 33-35.
  • Wing, J. M. (2011). Research Notebook: Computational Thinking–What and Why?.
There are 50 citations in total.

Details

Primary Language English
Subjects Mathematics Education
Journal Section Research Article
Authors

Rümeysa Beyazhançer

Barış Demir 0000-0001-6997-6413

Submission Date January 14, 2026
Acceptance Date January 31, 2026
Publication Date January 31, 2026
Published in Issue Year 2026 Volume: 9 Issue: 1

Cite

APA Beyazhançer, R., & Demir, B. (2026). The Turkish Adaptation of the Computational Thinking and Programming Tools in Mathematics Education Scale (CTEMS): A Validity and Reliability Study. Fen Matematik Girişimcilik Ve Teknoloji Eğitimi Dergisi, 9(1), 85-109. https://izlik.org/JA96EZ78XK

Aim & Scope

Disiplinlerin entegrasyonuna uygun olarak Fen, Matematik, Girişimcilik ve Teknoloji eğitimini bir arada düşünen çalışmaları yaygınlaştırmak ve bu yolla 21. yüzyıl gerektirdiği mesleklerin becerilerinin alt yapılarının oluşmasına katkı sağlamaktır.

Bilimsel faaliyetlerin tek bir disipline ait olan alan bilgi ve becerileri ile yapılamayacağını savunan anlayışlar, son yıllarda eğitim dünyasına hâkim olan bir paradigmaya dönüşmüştür. Bu paradigmanın arkasındaki gerekçeler irdelendiğinde; fen bilimleri eğitiminde tek disiplinli çalışmaların pratikte büyük sorunları çözemediği ve bu sorunun üstesinden gelmek içinokullarda öğrencilere kazandırılması düşünülen becerilere her geçen yıl bir yenisi daha eklendiği görülmektedir. Bu anlayışın tüm ülkelerin dikkatini çekme sebeplerinden biri geleceğe dönük ekonomik kalkınma yönündeki kaygılarıdır. Mühendisleri iyi olan toplumlar, teknolojik gelişmişliklerinin ve ekonomik kalkınmaların da iyi olduklarının farkındadırlar. Bu süreçte ana kaygı akademik bilgileri oturmamış ve gerçek hayat becerileri gelişmemiş lise mezunlarının üniversitelerde de kendilerini geliştiremedikleri; bu durumun ülkeler için teknolojik ve ekonomik kalkınmada gelecekte büyük riskler oluşturacağıdır.

Okullardaki mevcut eğitim durumumuzu irdelediğimizde; programdaki derslerin tamamına yakınının tek bir disipline konsantre olduğu ve algoritmik öğretim anlayışı ile derslerin işlendiği, okullarda sunulan bilgilerin toplumun ciddi sorunlarını çözmeye veya çözebilecek becerili bireyler yetiştirmeye yönelmediği anlaşılmaktadır. Bu sorunun üstesinden gelmek için modern dünyanın eğitim politikalarına vurgu yaptığı; okul bilgisine olan ilgi, merak ve konsantrasyon arttırılması, öğrencilerin hayal güçlerinin ve yaratıcılıklarının ön plana çıkarılması, öğrenme ortamlarında aktif olması, okul konularının yaşam ile ilişkilendirilmesi ve bütün bu faaliyetleri disiplinleri bir araya getirerek bütünleşik bir anlayışa oturtturulmasını zorunlu kılmaktadır. Bu anlayışın gerçekleşmesi durumunda 21. yüzyıl becerileri teoriden çıkıp pratikte bir anlamlı hale gelecektir. 21. yüzyıl becerilerini geliştiren toplumların öğrencilerin yeni ürünler ve yeni teknolojiler geliştireceğini ve buna dayalı olarak yeni meslekler ortaya çıkacağını ve yeni pazarlar ortaya çıkacağını göstermektedir. Dolayısıyla yakın zaman yayın hayatına başlayan “Fen, Matematik, Girişimcilik ve Teknoloji Eğitimi Dergisi” adlı online dergimizde değerlendirmek üzere eğitim bilimleri alanında (okul öncesi, ilköğretim, ortaokul, lise, eğitim fakültesi ve diğer eğitim paydaşları) gerçekleştirilen fen, matematik, girişimcilik ve teknoloji konulu araştırma makalelerinizi bekliyoruz. Disiplinler arası çalışmalara öncelik verileceğini bilmenizi isteriz. FMGT Eğitimi Dergisi hakemli bir dergi olup yılda üç kez yayımlanmaktadır. Dergiye gönderilecek araştırma makaleleri Türkçe veya İngilizce olarak yazılabilir.

Makale Yazım Kuralları ve Gönderim Süreci


Genel Kurallar

Tüm makaleler, Türkçe ve İngilizce Makale şablonu'na uygun olarak (APA 7) hazırlanmalıdır.


Çalışmalar, tek satır aralıklı, Palatino Linotype 10 punto yazı tipi kullanılarak ve kenar boşlukları (Normal, 2,5 cm) olacak şekilde düzenlenmelidir.

Öz, tablolar, şekiller, kaynakça, teşekkür ve ek kısımları bu düzenlemeye dâhildir.

Gönderim sırasında, değerlendirme sürecine zarar verebilecek yazar isimleri, kurum bilgileri gibi kimlik bilgileri dosyadan silinerek sisteme yüklenmelidir.


Makale Gönderim Süreci

1- Makale Üst Verileri

DergiPark sistemine yükleme yapılırken, Türkçe ve İngilizce özetler, anahtar kelimeler ve kaynakça eksiksiz şekilde girilmelidir.

2- Etik Kurul Onayı

TR Dizin Dergi Değerlendirme Kriterleri’ne uygun olarak, dergimize gönderilen tüm çalışmalardan “Etik Kurul Onayı” talep edilmektedir.

Onay belgesi olmayan çalışmalar değerlendirme sürecine alınmayacaktır.

3- Aşırmacılık (İntihal) Taraması

Çalışmalar, iThenticate© veya Turnitin© gibi yazılımlar aracılığıyla taranmalı ve tarama raporları makale ile birlikte sunulmalıdır.

Genel benzerlik oranı: %20’den az olmalıdır.

Bir kaynağa ait oran: %3’ten az olmalıdır.

Benzerlik oranlarının %1’in üzerinde olması durumunda yazarların dikkatli inceleme yapması önerilir.

4- Yayın Dili


Değerlendirme süreci, Türkçe tam metin üzerinden yapılacaktır.

Hakem onayından sonra, çalışmanın hem Türkçe hem de İngilizce tam metni talep edilecektir.

Türkçe ve İngilizce metinler, dil editörleri tarafından kontrol edilecektir.


Makale Yazım Kuralları


Sayfa Düzeni

Kâğıt Boyutu: A4 (Dikey).

Kenar Boşlukları: Normal (Tüm kenarlardan 2,5 cm).


Başlık Düzeyleri

Ana Başlık:

Yazı tipi ve boyutu: Palatino Linotype, 14 punto, kalın, ortalanmış.

Biçim: Her kelimenin baş harfi büyük yazılmalıdır (bağlaçlar hariç).

Alt Başlıklar:


1. Düzey Başlıklar: Palatino Linotype, 11 punto, kalın, sola yaslı, her kelimenin baş harfi büyük, numaralandırılmış.

2. ve Alt Düzey Başlıklar: Aynı yazı tipi ve punto ile yazılır, ancak stil farklıdır (italik, girintili).


Makale Özeti

Punto: Palatino Linotype, 9 punto.

Biçim: İki yana yaslı.

Uzunluk: 100-250 kelime.

Anahtar Kelimeler

Miktar: En az 3, en fazla 5 kelime.

Biçim: İlk kelime büyük harf ile başlar, diğer kelimeler küçük harf ile yazılır (özel isimler hariç).


Bölümler

Makale şu ana bölümlerden oluşmalıdır;

Giriş

Yöntem

Bulgular

Tartışma

Sonuç

Başlıklar: Palatino Linotype, 11 punto, kalın, ortalanmış ve yalnızca ilk harfi büyük olacak şekilde yazılmalıdır.


Kaynakça

Stil: APA 7

DOI ve Web Adresi: Varsa DOI bağlantısı, yoksa çalışmaya ulaşılabilecek web adresi eklenmelidir.

Alıntılar: 40 kelimeden uzun alıntılar 1,25 cm içeriden, 10 punto, italik, iki yana yaslı olarak yazılmalıdır.

Dil Farklılıkları:

Türkçe metinde: İki yazarlı kaynaklarda “ve”, daha fazla yazarda “vd.” kullanılır.

İngilizce metinde: İki yazarlı kaynaklarda “&”, daha fazla yazarda “et al.” kullanılır.


Tablo Gösterimi

Başlık: Palatino Linotype, 10 punto. İtalik, her kelimenin baş harfi büyük.

Notlar: “Note.” başlığı italik, 8 punto, sola yaslı.

Dikey Çizgiler: Kullanılmamalı.


Şekil Gösterimi

Şekil Numarası: Palatino Linotype, 10 punto, kalın, sonuna nokta eklenmez.

Başlık: İtalik, 10 punto, her kelimenin baş harfi büyük.

Notlar: “Note.” başlığı italik, 8 punto, sola yaslı.


Yayın Etiği

Fen, Matematik, Girişimcilik ve Teknoloji Eğitimi Dergisi'nde uygulanan yayın süreçleri, bilginin tarafsız ve saygın bir şekilde gelişimine ve dağıtımına temel teşkil etmektedir. Bu doğrultuda uygulanan süreçler, yazarların ve yazarları destekleyen kurumların çalışmalarının kalitesine doğrudan yansımaktadır. Hakemli çalışmalar bilimsel yöntemi somutlaştıran ve destekleyen çalışmalardır. Bu noktada sürecin bütün paydaşlarının (yazarlar, okuyucular ve araştırmacılar, yayıncı, hakemler ve editörler) etik ilkelere yönelik standartlara uyması önem taşımaktadır. Fen, Matematik, Girişimcilik ve Teknoloji Eğitimi Dergisi yayın etiği kapsamında tüm paydaşların aşağıdaki etik sorumlulukları taşıması beklenmektedir.

Aşağıda yer alan etik görev ve sorumluluklar oluşturulurken açık erişim olarak Committee on Publication Ethics (COPE) tarafından yayınlanan rehberler ve politikalar dikkate alınarak hazırlanmıştır.

Yazarların Etik Sorumlulukları

Fen, Matematik, Girişimcilik ve Teknoloji Eğitimi Dergisi'ne çalışma gönderen yazar(lar)ın aşağıdaki etik sorumluluklara uyması beklenmektedir:

1-Özgünlük: Yazar(lar)ın gönderdikleri çalışmaların özgün olması beklenmektedir. Yazar(lar)ın başka çalışmalardan yararlanmaları veya başka çalışmaları kullanmaları durumunda eksiksiz ve doğru bir biçimde atıfta bulunmaları ve/veya alıntı yapmaları gerekmektedir.

2-Yazarlar:
Çalışmanın oluşturulmasında içeriğe katkı sağlamayan kişiler, yazar olarak belirtilmemelidir.

3-Çıkar Çatışması: Yayınlanmak üzere gönderilen tüm çalışmaların varsa çıkar çatışması teşkil edebilecek durumları ve ilişkileri açıklanmalıdır.

4-Ham Veri: Yazar(lar)dan değerlendirme süreçleri çerçevesinde makalelerine ilişkin ham veri talep edilebilir. Böyle bir durumda yazar(lar) beklenen veri ve bilgileri yayın kurulu ve bilim kuruluna sunmaya hazır olmalıdır.

5-Veri Kullanım Hakları: Yazar(lar) kullanılan verilerin kullanım haklarına, araştırma/analizlerle ilgili gerekli izinlere sahip olduklarını veya deney yapılan deneklerin rızasının alındığını gösteren belgeye sahip olmalıdır.

6-Hata Bildirimi: Yazar(lar)ın yayınlanmış, erken görünüm veya değerlendirme aşamasındaki çalışmasıyla ilgili bir yanlış ya da hatayı fark etmesi durumunda, dergi editörünü veya yayıncıyı bilgilendirme, düzeltme veya geri çekme işlemlerinde editörle işbirliği yapma yükümlülüğü bulunmaktadır.

7-Çift Başvuru Yapmama: Yazarlar çalışmalarını aynı anda birden fazla derginin başvuru sürecinde bulunduramaz. Her bir başvuru önceki başvurunun tamamlanmasını takiben başlatılabilir. Başka bir dergide yayınlanmış çalışma Fen, Matematik, Girişimcilik ve Teknoloji Eğitimi Dergisi'ne gönderilemez.

8-Yazar Değişikliği: Değerlendirme süreci başlamış bir çalışmanın yazar sorumluluklarının değiştirilmesi (yazar ekleme, yazar sırası değiştirme, yazar çıkartma gibi) teklif edilemez.

Yayın Politikası

1-Yayınlanmış Çalışmalar: Daha önce herhangi bir yerde yayınlandığı belirtilen ya da belirlenen makaleler yayımlanmaz. Daha önce yayımlandığı halde belirtilmeyen makalelerin telif hakları bağlamında doğurabileceği hukuki sonuçların sorumluluğu yazarlarına aittir.

2-Telif Hakları: Yayımlanan makalelerin Türkiye içindeki telif hakkı FMGT Eğitimi Dergisi'ne, hukuki ve bilimsel sorumlulukları yazarlarına aittir.

3-Alıntı Yapma: FMGT Eğitimi Dergisi'nde yayınlanan yazılardan ancak kaynak gösterilerek alıntı yapılabilir. Yazının içeriğinde olabilecek çarpıtmalardan alıntı yapan ve yayınlayan kişi ya da kuruluşlar yasalar karşısında sorumludur.

4-Değerlendirme Süreci:
FMGT Eğitimi Dergisi'ne makale kaydı yaptırıldıktan sonra gönderilen makaleler öncelikle yayın kurulu tarafından değerlendirilir. Dergi amaçlarına uymayan yazılar değerlendirilmeye alınmaz.

5-Yazı Düzenlemeleri: Yayın Kurulu, yazıda gerekli gördüğü sözcükleri değiştirebilir.

6-Hakem Değerlendirmesi: Yayın Kurulu tarafından uygun görülen yazılar iki ayrı hakeme gönderilir. Makalesini değerlendiren hakemlerin kimliği hakkında yazarlara, gönderilen makalenin kime ait olduğu konusunda da hakemlere bilgi verilmez.

7-Yayımlanabilir Makale Kararı: Yayımlanabilecek makaleler, hakemlerden gelen öneriler doğrultusunda ilgili bölüm editörü tarafından belirlenir. Bölüm editörlerinin yayımlanabilir buldukları makale sayısı, o sayıda yayımlanacak toplam makale sayısından fazla olursa, hangi makalelerin yayımlanacağına Yayın Kurulu karar verir. Gerek duyulması halinde makaleler ikiden fazla hakeme gönderilebilir.

8-Redde Karar Verme: Her iki hakem tarafından uygun görülmeyen yazılar yayınlanmaz. Hakemlerden yalnızca biri uygun görmezse son kararı derginin editörü verir.

9-Düzeltme Talepleri: Düzeltilmek koşuluyla yayınlanabilir bulunan bir makaleye ilişkin hakem eleştirileri yazar(lar)a bildirilir. Hakemler tarafından belirtilen görüş, öneri ve gerekçelerin yazar/yazarlar tarafından dikkate alınarak, gerekli görülen düzeltmelerin yapılması esastır. Makalenin düzeltilmiş son şekli, yirmi gün içinde editöre teslim edilmelidir. Ancak yazar(lar), kanıt göstermek koşulu ile, düzeltme taleplerine itiraz edebilirler. Bu durumda, Hakem Kurulu üyelerinden en az bir kişinin danışmanlığına başvurulur. Görüşüne başvurulan hakem, yazarı/yazarları haksız görürse, ilgili makale yayımlanmaz.

10-Büyük Değişiklikler:
Metin üzerinde yapılan büyük değişiklikler kabul edilmez. Gerekli görüldüğünde yazı tekrar hakemlere gönderilebilir.

11-Hakem Değerlendirmesi Süresi: Hakemlerin, kendilerine gönderilen makale hakkındaki değerlendirmelerini kabul edilebilir bir süre içinde belirtmeleri için Yayın Kurulu tarafından mümkün olan önlemler alınır. Gerekirse başka hakem/hakemler atanarak, gönderilen makalelerin güncelliklerini yitirmeleri önlenmeye çalışılır.

12-Ücret: FMGT Eğitimi Dergisi'nde yayınlanan makaleler için herhangi bir ücret ödenmez.

13-Makale Gönderim Politikası: FMGT Eğitimi Dergisi'ne gönderilen yazılar yayınlansın ya da yayınlanmasın geri gönderilmez.

14-Yayın Takibi: Yazarlar göndermiş oldukları yazılar ile ilgili bilgileri "Yayın Takibi" bölümünden denetleyebilirler.

Fen, Matematik, Girişimcilik ve Teknoloji Eğitimi Dergisi makale kabulü veya süreç işlemi adı altında herhangi bir ücret talep etmemektedir. Makaleler ücretsiz olarak yayımlanmaktadır.

Editör

Classroom Measurement Practices, Science Education, STEM Education

Salih ÇEPNİ, Uludağ Üniversitesi, Türkiye



Physics Education, Science Education
Science and Mathematics Education, Special Talented Education

Yayın Kurulu

Dr. Lilia Halim is a former Professor at the Faculty of Education, Universiti Kebangsaan Malaysia. She graduated from King’s College London in Science education. Her research interests are teachers’ pedagogical content knowledge, STEM education and informal STEM education.

Informal Learning, Teacher Education and Professional Development of Educators, Science Education, STEM Education
Araştırmacı Osmaniye’de başladığı eğitim hayatında, ilköğrenimi Cumhuriyet İlköğretim Okulu, orta öğrenimini ise Çukurova Lisesi’nde tamamladı. Lisans eğitimini Cumhuriyet Üniversitesi Eğitim Fakültesi Fen Bilgisi Öğretmenliği programında 2009 yılında tamamladı. Yüksek lisans eğitimini Sakarya Üniversitesi Eğitim Bilimleri Enstitüsü'nde Fen Bilgisi Eğitimi ABD'de 2011 yılında tamamladı. Doktora eğitimine ise, 2011 yılında Karadeniz Teknik Üniversitesi Eğitim Bilimleri Enstitüsü Fen Bilgisi Eğitimi ABD'de başlamış olup, yatay geçiş yaptığı Uludağ Üniversitesi Eğitim Bilimleri Enstitüsü'nde 2016 yılında tamamladı. Araştırmacı 2014-2015 eğitim öğretim yılında “Doktora Sırası Araştırma Bursu (TÜBİTAK)” kapsamında Finlandiya Turku Üniversitesi öğretmen eğitimi okulunda yaklaşık 1 yıl süreyle girişimcilik konusunda araştırmalar yürütmüştür. Araştırmacı 2012-2016 yılları arasında Uludağ Üniversitesi Eğitim Fakültesi'nde araştırma görevlisi olarak görev yapmıştır. Daha sonra 2016-2018 yılları arasında Kahramanmaraş Sütçü İmam Üniversitesi Eğitim Fakültesi Fen Bilgisi Eğitimi bilim dalında doktor öğretim üyesi olarak görev yapmış, 2019 yılı itibariyle Üniversitelerarası Kurul Başkanlığı tarafından Fen Bilgisi Eğitimi bilim dalında Doçent unvanı verilmiştir. Halen Kahramanmaraş Sütçü İmam Üniversitesi'ndeki akademik görevini sürdürmektedir. Fen bilimleri eğitiminde öğretmen yetiştirme, fen öğretimi, girişimcilik, ödevler, STEM, E-STEM üzerine çalışmalar yürütmekte olup bu konularda SSCI, SCI ve Alan indeksli dergilerde çok sayıda araştırma makalesi mevcuttur.
Science Education
Education, Instructional Technologies
Education, Science Education, Personality and Individual Differences
Chemistry Education, Science Education
Open and Distance Learning, Curriculum and Instration , Science and Mathematics Education, Science Education
Curriculum Development in Education, In-Service Training, Teacher Education and Professional Development of Educators, Chemistry Education

Dizgi Sorumlusu

Science Education, Special Education and Disabled Education

Yazım ve Dil Editörü

Turkish and Social Sciences Education

Yayın Editörü

Classroom Measurement Practices, Science Education, STEM Education
Science and Mathematics Education, Special Talented Education