Amaç: Bu araştırmada yapay zekâ uygulamasının veri analizi yapmadaki performansı yapı geçerliği ve güvenirlik kanıtları üzerinden incelenmesi amaçlanmıştır. Bu amaç doğrultusunda farklı örneklem büyüklüğü ve madde sayısı koşullarında üretilen verilerde açımlayıcı faktör analizi Cronbach alfa ve madde toplam test korelasyonu hesaplamaları R programı ve ChatGPT ile yapılarak karşılaştırılmıştır.
Yöntem: Araştırma verilerin yapay olarak elde edilerek çeşitli istatistiksel tekniklerin test edilerek karşılaştırmaların yapıldığı simülatif bir araştırmadır. Araştırmada örneklem büyüklüğü 250, 500 ve 1000, madde sayısı 10 ve 20 olarak değişimlenerek 100 tekrar ile simülatif olarak üretilmiştir. Üretilen veri setlerine açımlayıcı faktör analizi yapılarak KMO değeri, açıklanan toplam varyans oranı ve faktör sayısı kestirimleri; iç tutarlılık anlamında güvenirlik için Cronbach alfa kestirimleri ve madde ayırt ediciliği için madde toplam test puanı korelasyon katsayısı hem R hem de ChatGPT ile ayrı ayrı yapılmıştır. Elde edilen bulgular betimsel olarak karşılaştırılmıştır.
Bulgular: Araştırmada ChatGPT ve R programından elde edilen değerlerin birbiri ile uyumlu olduğu bulgusuna erişilmiştir. Buna göre KMO değeri, açıklanan toplam varyans değer, faktör sayısı ve Cronbach alfa değeri benzerdir. Örneklem büyüklüğü arttıkça dolayısıyla veri matrisi büyüdükçe ChatGPT’nin elde ettiği kesitirimler ile R arasında fark oluştuğu görülmüştür.
Sonuçlar ve Öneriler: ChatGPT tarafından kestirilen KMO, açıklanan toplam varyans, faktör sayısı ve Cronbach alfa katsayısı değerleri R ile uyum göstermektedir. Niceliksel değerlere bağlı kararlarda yapay zekâ kullanılabilir ancak faktör isimlendirme gibi araştırmacı yargısı gerektiren durumlarda bütünüyle yapay zekaya güvenmemek gerekmektedir. Bu araştırmada yapay zekâ uygulamasında analizler tek zamanda yapılmıştır, farklı zamanlarda yapıldığında farklı sonuçlar verebileceği göz önünde bulundurulmalıdır. Yapay zekâ uygulamalarından yalnızca ChatGPT üzerinden denemeler yapılmıştır farklı uygulamalarda da benzer sonuçlar verip vermediği araştırılabilir.
Purpose: This study aims to examine the performance of an artificial intelligence application in data analysis based on evidence of construct validity and reliability. For this purpose, exploratory factor analysis, Cronbach's alpha, and item-total test correlation calculations were performed using both R and ChatGPT on datasets generated under varying sample sizes and item numbers. The results obtained from these two methods were then compared.
Design & Methodology: This is a simulative study in which data were artificially generated and various statistical techniques were tested and compared. The sample sizes were set at 250, 500, and 1000, with item numbers set to 10 and 20, and repeated 100 times for simulation purposes. The generated datasets were subjected to exploratory factor analysis, and estimations for KMO value, total explained variance, and the number of factors were obtained. For internal consistency, Cronbach's alpha was calculated, and for item discrimination, item-total test score correlation coefficients were computed using both R and ChatGPT. The results were compared descriptively.
Findings: The study found that the values obtained from ChatGPT and R were consistent with each other. Specifically, the KMO value, total explained variance, number of factors, and Cronbach's alpha were found to be similar. However, as the sample size increased and thus the data matrix expanded, discrepancies were observed between the estimates obtained by ChatGPT and R.
Implications & Suggestions: The estimations for KMO, total explained variance, number of factors, and Cronbach's alpha values obtained by ChatGPT were in agreement with those obtained using R. Artificial intelligence can be used in decision-making processes that rely on quantitative values, but it is advised not to rely entirely on AI for tasks requiring researcher judgment, such as naming factors. In this study, analyses using the AI application were performed at a single point in time; it should be noted that results may vary if conducted at different times. Additionally, this study only tested ChatGPT; future research could explore whether similar results are obtained with other AI applications.
Primary Language | Turkish |
---|---|
Subjects | Measurement Theories and Applications in Education and Psychology, Similation Study |
Journal Section | Manuscripts |
Authors | |
Publication Date | April 30, 2025 |
Submission Date | January 10, 2025 |
Acceptance Date | February 13, 2025 |
Published in Issue | Year 2025 Volume: 12 Issue: 23 |