Objective: The scientific validity of utilizing artificial intelligence (AI)-based tools for studying anatomy and preparing for medical specialization exams has increasingly become a subject of academic interest. This study aimed to evaluate the performance of ChatGPT 4.0 and Google Gemini in answering anatomy questions from the Türkiye National Medical Specialization Examination. Materials and Methods: Anatomy-related questions were extracted from exams administered biannually between 2006 and 2021, which were publicly available through the institutional website. Out of 400 questions, 384 were deemed suitable and were simultaneously posed to both AI models. Results: The overall accuracy was 80.7% for ChatGPT 4.0 and 69.3% for Gemini (p < 0.001). ChatGPT 4.0 demonstrated a significantly higher success rate in questions requiring clinical reasoning and inference (91.1%) compared to Gemini (71.4%) (p = 0.007). Conclusion: ChatGPT 4.0 outperformed Gemini in terms of accuracy and reliability, particularly for clinically oriented anatomy questions. While AI models such as ChatGPT show promise in anatomy education and exam preparation, it is advisable to use them in conjunction with validated academic resources.
Anatomy Education ChatGPT 4.0 Clinical Anatomy Google Gemini Medical Specialization Examination
Amaç: Anatomi çalışmak ve tıp uzmanlık sınavlarına hazırlanmak için yapay zeka tabanlı araçların kullanılmasının bilimsel geçerliliği giderek akademik bir ilgi konusu haline gelmiştir. Bu çalışmanın amacı, ChatGPT 4.0 ve Google Gemini'nin Türkiye Ulusal Tıpta Uzmanlık Sınavı anatomi sorularını yanıtlamadaki performansını değerlendirmektir. Gereç ve Yöntemler: Anatomi ile ilgili sorular, 2006-2021 yılları arasında yılda iki kez uygulanan ve kurumsal web sitesi aracılığıyla kamuya açık sunulan sınavlardan çıkarılmıştır. 400 sorudan 384'ü uygun bulunmuş ve her iki yapay zeka modeline eşzamanlı olarak sorulmuştur. Sonuçlar: Genel doğruluk oranı ChatGPT 4.0 için %80,7 ve Gemini için %69,3 olmuştur (p < 0,001). ChatGPT 4.0, Gemini'ye (%71,4) kıyasla klinik muhakeme ve çıkarım gerektiren sorularda (%91,1) önemli ölçüde daha yüksek bir başarı oranı göstermiştir (p = 0,007). Sonuç: ChatGPT 4.0, özellikle klinik odaklı anatomi sorularında doğruluk ve güvenilirlik açısından Gemini'den daha iyi performans göstermiştir. ChatGPT gibi yapay zeka modelleri anatomi eğitimi ve sınav hazırlığında umut vaat etse de, bunların doğrulanmış akademik kaynaklarla birlikte kullanılması tavsiye edilir.
Anatomi eğitimi ChatGPT 4.0 Klinik anatomi Google Gemini Tıpta uzmanlık sınavı
| Birincil Dil | İngilizce |
|---|---|
| Konular | Tıp Eğitimi |
| Bölüm | Araştırma Makalesi |
| Yazarlar | |
| Gönderilme Tarihi | 10 Haziran 2025 |
| Kabul Tarihi | 3 Kasım 2025 |
| Yayımlanma Tarihi | 22 Aralık 2025 |
| Yayımlandığı Sayı | Yıl 2025 Cilt: 24 Sayı: 74 |